#Vera Rubin
黃仁勳徹底不裝了!一口氣亮出6顆全新晶片,馬斯克都看呆了!
被逼急的黃仁勳徹底不裝了。在 2026 年科技春晚 CES 的舞台上,這位身著標誌性黑色皮衣的男人,一句 “我們打破了自己的規則”,讓全場陷入沉默。沒有預告,沒有鋪墊。輝達突然亮出下一代 AI 計算平台 Vera Rubin,一口氣推出 6 顆全新架構晶片,點名 DeepSeek,更宣佈全端自動駕駛系統即將量產。現場觀眾倒吸涼氣,連馬斯克都驚嘆:“這不是升級,這是 AI 的火箭引擎。”一個月前,黃仁勳還在播客中坦白自己因害怕破產常年焦慮,此刻卻用顛覆性發佈,讓全球科技巨頭徹夜難眠。過去 20 年,輝達有個鐵律:每次產品迭代最多更 1-2 顆晶片。重新設計晶片的成本與風險,足以壓垮任何科技公司。但這一次,黃仁勳直接 “拆家”——6 顆晶片全部從頭設計、全線重構,而非簡單迭代,甚至跳過三個月後的 GTC 大會,在 CES 直接亮底牌。這 6 顆晶片整合為 Rubin 超級系統,視覺簡潔,性能卻恐怖:算力提升 5 倍,AI 推理 token 成本降至前代十分之一,能耗效率翻 3 番。這款平台已全面投產,2026 年下半年將由合作夥伴推出,微軟、OpenAI 等巨頭已宣佈率先部署。黃仁勳這一拳,是 63 歲 CEO 的孤注一擲。背後的危機感,源於 AI 行業的激烈變局。AI 模型規模年增 10 倍,生成 token 數量年增 5 倍,算力胃口瘋狂擴張,晶片進化卻逐漸掉隊。黃仁勳本以為 AI 時代是輝達的永恆主場,現實卻狠狠打臉。一方面,中國玩家不再甘當使用者,華為昇騰、寒武紀、百度崑崙芯紛紛自研 AI 晶片,比亞迪等車企也建起專屬 AI 訓練中心。黃仁勳多次提醒西方,不要低估東方衝擊。另一方面,昔日盟友變對手。Google、亞馬遜、微軟加速自研晶片替代輝達,2025 年 11 月 Meta 考慮大規模採用Google TPU 的消息,讓輝達股價單日暴跌 8%,數千億美元市值蒸發。黃仁勳明白,不拿出身家性命級的硬貨,護城河 2026 年就會被填平。聖誕節前夕,他砸 200 億美元收購 AI 獨角獸 Groq,金額是其三個月前估值的三倍,要的就是反擊利刃。AMD 的追擊更讓競爭白熱化。輝達發佈會後 2.5 小時,蘇姿丰帶著新品正面硬剛,“蘇黃之爭” 讓市場硝煙四起。90 分鐘演講,黃仁勳全程站立無停頓。他更宣佈佈局八年的成果:“物理 AI 的 ChatGPT 時刻已經到來。”過去的 AI 只活在螢幕裡,懂文字卻不認識螺絲刀。而物理 AI 要讓智能 “越獄”,走進真實世界理解重力、摩擦、慣性等基本常識。發佈會上的視訊讓全場屏息:一輛奔馳 CLA 在舊金山街頭自主穿行,無預設路線、無高精地圖,卻能觀察行人眼神、判斷圍擋是否可繞行,還會禮讓突沖路人。這套自動駕駛生態 2026 年一季度就量產上車。這標誌著輝達徹底告別 “賣鏟人” 身份。從前只賣 GPU,如今從晶片、演算法到整車方案全包圓。那句 “打破自己的規則” 背後,藏著後半句:“也打破你們的規則。”這場變革是技術與生存的雙重博弈。輝達用 Rubin 重構算力規則,用物理 AI 改寫智能邊界,用全端佈局重塑競爭邏輯。63 歲的黃仁勳帶著輝達孤注一擲,用打破一切的勇氣,開啟了 AI 從虛擬走向現實的全新時代。 (科技直擊)
國際周報 | Nvidia 宣佈 Vera Rubin 晶片支援 45°C熱水冷卻;DayOne 完成 20 億美元 C 輪融資
大廠動態No.01DayOne完成20億美元C輪融資加速亞太與歐洲擴張亞太資料中心營運商 DayOne 宣佈完成超過 20 億美元 C 輪融資,由 Coatue 領投,印尼主權財富基金 INA 等參與。資金將用於擴展其在新加坡、馬來西亞、印尼、泰國、日本與香港的資料中心佈局,並支援芬蘭 Lahti 和 Kouvola 園區建設。DayOne 前身為中國 GDS 國際業務,目前已擁有及在建容量超過 500MW,並儲備同等規模開發潛力。點評:萬國海外獨立後,融資提速全球化佈局。No.02百度與華為佔據中國GPU雲市場七成份額推動自研晶片全端融合Frost & Sullivan 報告顯示,2025 年上半年百度與華為共佔中國 GPU 雲市場 70.5% 份額,其中百度以 40.4% 居首。兩者均採用“晶片到雲”全端策略,建構自研晶片規模化資源池,以挑戰 Nvidia CUDA 生態。儘管市場仍面臨性能、生態與整合瓶頸,但百度與華為正加速融合軟硬一體能力。其他大廠如騰訊、阿里受限於 AI GPU 供應,資本開支明顯下滑。點評:中國國產替代提速,芯雲一體成主流路線。No.03xAI宣佈資料中心叢集擴建計畫總投資達 200 億美元馬斯克旗下 xAI 正在田納西州孟菲斯與密西西比州德索托縣同步推進資料中心建設,最新項目“MACROHARDRR”預計將推動整體算力容量增至約 2GW。該叢集將服務於 Colossus 超級計算平台,目標部署 100 萬顆 GPU。xAI 已完成 200 億美元 E 輪融資,輝達、思科等為戰略投資方。資料中心依託自建燃氣電廠與 Tesla Megapack 快速部署,但也引發環保爭議。密西西比州政府已給予稅收優惠,稱其為州史上最大經濟開發項目。點評:馬斯克火力全開,美南成算力高地。No.04軟銀將以40億美元收購資料中心投資公司 DigitalBridge軟銀宣佈將以 40 億美元收購全球數字基礎設施投資公司 DigitalBridge。後者管理資產規模達 1080 億美元,旗下投資組合包括 AIMS、AtlasEdge、DataBank、Switch、Takanock、Vantage 和 Yondr Group,資料中心總容量達 5.4GW。該收購將強化軟銀在 AI 基礎設施領域的佈局,特別是在支援 OpenAI 的 Stargate 超大規模資料中心項目上。交易預計於 2026 年下半年完成,DigitalBridge 將保持獨立營運。點評: AI 風口下,軟銀重金搶灘算力基建。No.05微軟計畫在密歇根州Dorr和Lowell建設資料中心園區Grand Rapids成新興熱點微軟近日確認將在密歇根州 Grand Rapids 附近的 Dorr 和 Lowell 兩地建設資料中心園區。公司已在 Dorr 購地 272 英畝,在 Lowell 提議開發 235 英畝園區,前者為已購土地,後者仍處初期溝通階段。第三個選址 Gaines 因社區反對暫緩推進。微軟表示將加強與社區溝通,並承諾新設施符合節水和可持續發展目標。該地區正成為繼底特律後新的資料中心集聚地。點評:微軟中西部佈局提速,小城鎮迎資料中心入駐潮。No.06OADC收購NTT在南非的資料中心資產泛非資料中心營運商 OADC 將收購 NTT 在南非的七個資料中心,地點包括約翰內斯堡、開普敦、布隆方丹等地,交易已獲南非競爭委員會批准。該資產原屬 NTT 於 2010 年收購的 Dimension Data,現總容量約 10MW。本次交易是 OADC 母公司 WIOCC 戰略擴張的一部分,旨在增強其在南非及非洲的中立資料中心佈局。點評:區域整合提速,非洲市場熱度不減。科技動態No.07Nvidia宣佈Vera Rubin晶片支援45°C熱水冷卻引發傳統 HVAC股價下跌在 CES 上,黃仁勳宣佈其新一代 Vera Rubin 晶片可在 45°C 熱水環境下運行,無需冷水機組,引發 Modine、江森自控、特靈科技等 HVAC 企業股價普跌。Rubin 系列性能大幅超越 Blackwell,將於 2026 年下半年上市,採用 100% 液冷與模組化托盤設計。分析稱,傳統空調廠商或受衝擊,而擁有液冷佈局的 nVent、Vertiv 有望受益。點評:熱水冷卻上場,資料中心製冷範式或變天。No.08Vertiv發佈2026資料中心趨勢預測,AI驅動電力架構與液冷系統深度變革Vertiv 在其《Frontiers》報告中指出,AI 工廠對密度、規模和部署速度的極致需求,正在重塑資料中心設計與維運。五大趨勢包括:向高壓直流電架構轉型以支援 AI 功耗密度;數字孿生驅動模組化部署;AI 推理推動邊緣與私有部署;本地發電成為能源保障核心;液冷系統走向智能自適應。Vertiv 預計“資料中心即算力單元”將成為 AI 時代基礎設施新範式。點評:AI 正在重寫資料中心設計公式,全端協同成關鍵。No.09江森自控將在新加坡投資6000萬新元擴建創新中心聚焦 AI 資料中心冷卻技術江森自控宣佈未來五年將在新加坡投資約 6000 萬新元(約合 4400 萬美元),擴建其創新中心,研發麵向 AI 與雲端運算資料中心的下一代冷卻、熱管理與自動化技術。項目將專注液冷與混合冷卻,適用於亞太高溫、高功耗環境,同時作為區域研發樞紐服務整個亞太市場。擴建後將增加至 90–100 名工程師,聯合高校與客戶進行應用測試。點評:液冷東南亞落地,瞄準 AI 高密集算力。No.10Ventiva在CES推出離子冷卻參考設計,適用於AI資料中心與邊緣裝置美國冷卻技術公司 Ventiva 在 CES 2026 上發佈其新型“分區空氣冷卻”參考設計,採用離子冷卻技術,可精準為 CPU、GPU 等高熱部件定向送風,適配資料中心、邊緣計算與消費裝置。該方案無需大型機械風扇,可釋放機箱空間、提高機架密度,並與液冷系統互補。該技術利用電場驅動電漿體產生氣流,被視為新一代高效熱管理方案之一。點評:離子冷卻登場,挑戰風冷液冷二元格局。行業萬花筒No.11S&P警告AI驅動銅需求激增或對資料中心建設構成系統性風險S&P Global 報告指出,銅將成為繼記憶體、雷射器之後又一關鍵瓶頸資源。受 AI 資料中心、電網擴建、電動車等多重需求推動,全球銅需求預計到 2040 年將增長 50%,缺口達 1000 萬噸。其中資料中心銅用量將從 2025 年的 110 萬噸升至 2040 年的 250 萬噸,AI 訓練負載預計 2030 年佔資料中心銅需求的 58%。雖然部分互聯已轉向光纖,但整體銅強度依舊高達每兆瓦 30–40 噸。點評: “缺銅”繼“缺芯”之後,AI 基建面臨全端資源瓶頸。No.12JLL預測全球資料中心將在2030年前迎來3兆美元投資超級周期JLL 報告預測,至 2030 年全球資料中心總投資將達 3 兆美元,容量增至近 100GW,年複合增長率達 14%。其中地產資產價值增長約 1.2 兆美元,8700 億美元為債務融資,1–2 兆美元將用於 GPU 與網路裝置升級。JLL 指出儘管存在電力、供應鏈、成本等挑戰,當前行業租賃率與預租比例仍顯示基本面健康。AI 推動推理型負載崛起,預計 2030 年將佔據一半資料中心容量。點評: AI 驅動全球算力熱,泡沫論暫難成立。 (DeepKnowledge)
【CES 2026】黃仁勳CES 2026演講精華:Vera Rubin架構與物理AI的覺醒
引言:當物理定律失效,新世界如何開啟?2026年CES大會前夕,整個科技行業都籠罩在一片疑慮之中。華爾街的警鐘頻頻敲響:AI泡沫是否將要破裂?摩爾定律——那條支配了半導體行業六十年的鐵律——是否真的走到了盡頭?除了聊天,AI究竟何時才能真正賺錢?面對這些價值數兆美元的挑戰,黃仁勳的演講給出了一個出人意料的答案,它並非一個技術術語,而是一個天文學家的名字——“Vera Rubin”(薇拉·魯賓)。這並非隨意的致敬。薇拉·魯賓是20世紀最偉大的天文學家之一,她通過觀測星系旋轉發現了“暗物質”的存在,證明了宇宙中存在一種我們看不見但卻支配著物理法則的力量。黃仁勳以此為名,寓意深刻:當半導體行業撞上摩爾定律這堵“看不見的牆”,當物理學奏響悲歌,輝達選擇的不是妥協,而是一場令人頭皮發麻的暴力破解——像魯賓一樣,去揭示一個全新的維度。本文將帶你梳理這場演講的精華脈絡,從電腦行業的根本性平台轉變講起,深入剖析AI模型如何從“鸚鵡學舌”進化到擁有“思考能力”,揭示Vera Rubin架構背後的“暴力美學”,並最終描繪一幅物理AI走進現實,重塑全球工業的宏偉藍圖。讓我們一同走進黃仁勳描繪的未來,看看當物理定律開始失效時,一個新的世界是如何被構想和建造的。1. 平台之變:電腦行業正在經歷一場雙重革命黃仁勳指出,電腦行業大約每10到15年就會經歷一次平台轉變,從大型機到PC,再到網際網路與移動雲。每一次轉變都意味著應用世界的重構。而今天,我們正處在一場史無前例的雙重革命之中。轉變一:AI即平台 (AI as the Platform)這不僅僅是創造AI應用,而是未來的所有應用都將建構在AI之上。AI不再是軟體的功能之一,而成為了軟體運行的基礎。轉變二:計算堆疊重塑 (Reinvention of the Computing Stack)這場轉變從根本上顛覆了軟體的開發與運行方式,整個計算行業的價值鏈正在被重寫。這場雙重革命的意義是巨大的:價值超過10兆美元的傳統計算行業正在被現代化。所有投入AI領域的資金、研發和人才,其根本動力就源於這場底層平台的價值重塑。為了支撐這場革命,AI模型本身也必須完成一次從量變到質變的飛躍。2. AI的進化:從“鸚鵡學舌”到擁有“思考能力”回顧過去,AI的進化是驚人的。2025年,我們見證了大型語言模型的持續擴展和“智能體系統”(Agentic Systems)的興起。但黃仁勳強調,最核心的轉變是一個看似晦澀的概念——“測試時擴展 (Test-time Scaling)”。這標誌著AI範式的一次根本性轉移。過去的AI,更像一隻博學的“鸚鵡”,只會根據機率“預測下一個詞”,它的回答是一次性的、反射式的。而今天的AI,則具備了“慢思考”的能力。推理不再是一次性的回答,而是一個思考的過程。這種“思考”能力,徹底顛覆了AI的經濟模型,成為了輝達的新“金礦”。它將算力的主要消耗從一次性的訓練成本,轉移到了持續不斷的、海量的推理(思考)成本上,徹底打消了“模型訓練完就不需要那麼多GPU”的舊有疑慮。算力需求爆炸為瞭解決一個複雜問題(如設計新藥),AI需要在內部進行海量的自我對話、模擬與反思。這導致AI為了“思考”而生成的Token(計算單元)數量,正以每年5倍的速度增長。成本挑戰如果AI每思考一分鐘就要消耗數百美元,那麼這種智能體將永遠無法商業化。高昂的推理成本是AI落地的最大障礙。輝達的承諾黃仁勳提出,AI的推理成本每年需要下降10倍。這正是下一代硬體平台必須解決的核心問題,也是AI從“昂貴的玩具”變為“廉價的數字勞動力”的經濟臨界點。要實現這種既強大又廉價的“思考”,唯一的出路就是從最底層的晶片架構上進行顛覆性創新。3. Vera Rubin平台:用“暴力破解”回應物理學的終結面對物理學的硬天花板,黃仁勳的解決方案不是造一個更好的引擎,而是重新定義電腦本身。演講中最令人震撼的一刻,是黃仁勳揭示Vera Rubin GPU的電晶體數量僅比上一代增加了1.6倍。這幾乎是物理學的悲鳴,宣告了單純依靠堆砌電晶體換取性能的摩爾定律時代已經結束。然而,他緊接著公佈了另一個數字:AI推理性能提升了5倍。這看似不可能的飛躍,答案是黃仁勳反覆強調的理念:“極端協同設計 (Extreme Co-design)”。這好比造賽車,當引擎的物理極限到達後,你不能再指望造一個更大的引擎。你必須把整輛車融化,從引擎、底盤到輪胎紋路,為同一個目標重新鑄造。Vera Rubin不是一塊GPU,它是一個由六款核心晶片精密協同的平台。Vera CPU它採用“空間多線程”技術,讓每個CPU核心都能像“千手觀音”一樣高效處理海量資料,確保能喂飽身旁貪婪的Rubin GPU。Rubin GPU其核心是革命性的MVFP4 Tensor Core。這是一種自適應處理單元,能夠根據計算任務動態調整精度,在允許精度損失的地方以更高吞吐量運行。這正是電晶體增幅有限的情況下,實現5倍性能飛躍的“魔法”所在。NVLink 6 Switch這塊交換機晶片的頻寬,相當於全球網際網路總頻寬的兩倍。它能將多塊GPU無縫連接成一個邏輯上的“超級GPU”,徹底打破算力孤島。BlueField-4 DPU這顆資料處理單元管理著一個巨大的共享“推理上下文記憶體池”,為AI配備了一個高達16TB的“外掛大腦”。它從根本上解決了因KV Cache瓶頸導致的AI“短期失憶症”問題,使其能夠擁有真正的長期記憶。此外,黃仁勳還展示了一項反直覺的黑科技——“45攝氏度溫水冷卻”。這意味著資料中心不再需要高耗能的製冷機,極大地節省了電力,降低了部署門檻。輝達賣的不僅是算力,更是一整套能源經濟學解決方案,巧妙地回應了“AI太貴太耗電”的質疑。當AI擁有了如此強大的大腦和記憶後,它的下一步,便是走出伺服器,進入真實的物理世界。4. 物理AI覺醒:當AI長出雙腳,學會開車與思考黃仁勳將這一章稱為物理AI的ChatGPT時刻。如果說過去的AI處理的是“資訊”(文字、圖片),那麼物理AI處理的則是“行動”(開車、搬磚、做手術)。這是AI最難,也是最終極的一塊拼圖。核心案例:Alpamayo自動駕駛輝達給出了一個不留退路的時間表:由Alpamayo驅動的梅賽德斯-奔馳CLA將於2026年第一季度在美國上路。其最革命性的能力是可解釋性 (Interpretability)。在演示中,車輛在十字路口減速,螢幕上即時跳出一段文字,彷彿是車輛的“內心獨白”:“我看到左前方SUV剎車燈亮了,且車輪向右偏轉……我懷疑它要強行變道插隊。為了安全,我決定現在減速並稍微向右避讓。”這標誌著AI不再是死記硬背規則的“黑盒”,它學會了像老司機一樣觀察、預測、判斷並用人類語言解釋決策。這種推理能力,正是解決自動駕駛“長尾問題”(各種罕見突發狀況)的關鍵,因為它讓AI學會了“舉一反三”。為了確保極致的安全與可靠性,黃仁勳透露,這套系統採用了雙重冗餘設計:全新的端到端Alpamayo模型與一個經典的、完全可追溯的傳統自動駕駛堆疊平行運行。後者如同一個經驗豐富的安全官,時刻為前沿的AI模型提供安全護欄,體現了輝達負責任的工程倫理。拓展至通用機器人在現實世界中訓練機器人既慢又危險。輝達的解決方案是在Omniverse這個“駭客帝國”中進行訓練。Cosmos世界模型建構一個與現實世界物理規律完全一致的虛擬空間。合成資料 (Synthetic Data)在虛擬空間中,時間可以加速。現實中的一天,可以在Omniverse裡模擬出一萬年的訓練量。機器人在裡面摔倒一百萬次,學會了平衡;捏碎一百萬個虛擬杯子,學會了控制力度。從模擬到現實 (Sim2Real)當機器人在虛擬世界中練成“絕世武功”後,再將訓練好的“大腦”下載到現實世界的機器人中。這套方法論解決了物理AI訓練資料的核心痛點,讓AI的進化擺脫了現即時間的束縛。當AI掌握了與物理世界互動的能力,其最終極的應用場景將是重塑人類最大規模的經濟活動——工業製造。5. 工業元宇宙:在“盜夢空間”裡建造未來工廠演講的高潮,是黃仁勳邀請西門子CEO上台。這次合作的目標,是實現一個科幻般構想:“設計工廠的工廠”。想像一下建造一座超級工廠的傳統流程與新模式的對比:舊模式:畫圖紙 -> 建造 -> 偵錯 -> 發現設計缺陷 -> 停工返工。整個過程耗時數年,耗資數十億美元。新模式:先在Omniverse工業元宇宙中,對整個工廠進行物理級精度的1:1數字孿生模擬。在虛擬世界裡讓工廠全速運轉,解決所有設計缺陷、最佳化所有生產流程。直到一切完美,再在物理世界裡進行“列印”。這如同在“盜夢空間”裡建造城市。通過與西門子的合作,輝達正將其算力與演算法注入全球製造業的底層血脈,成為新工業革命的基礎設施。這背後,是一個價值百兆美元的巨大市場。結論:新世界的施工圖紙與我們的位置黃仁勳的演講,為我們描繪了一張新世界的施工圖紙,它由五大核心支柱構成:1. 引擎 (Vera Rubin)一顆並非依靠更大肌肉,而是依靠完美協同建構的心臟,頂著摩爾定律的逆流,將算力之血的泵送速度提升了五倍。2. 大腦 (慢思考模型)讓智能從條件反射進化為深思熟慮,開啟了以持續思考為核心的推理算力新紀元。3. 記憶 (BlueField記憶體池)一個永不遺忘的海馬體,賦予AI連續的、個性化的長期意識。4. 四肢 (物理AI)讓智能走出螢幕,拿起工具,握住方向盤,開始與真實世界互動。5. 夢境 (工業元宇宙)一個可以加速時間的進化溫床,用模擬模擬重構物理世界的建造邏輯。這一套組合拳打下來,一個問題油然而生:當AI不僅能思考,還能在物理世界行動,甚至親自建造工廠時,人類的位置在那裡?黃仁勳描繪的未來,充滿了效率的極致提升與成本的瘋狂下降。但它也帶來了更深層次的挑戰。傑文斯悖論告訴我們,當一項資源的使用效率提高時,其總消耗量反而可能增加。即便Vera Rubin讓AI的每一次“思考”都更節能,但當AI的應用呈指數級爆炸時,這是否會引發全球能源需求的不可持續性激增?我們是否正在建造一個終將吞噬自己神殿的神?正如薇拉·魯賓發現暗物質,徹底改變了我們對宇宙的認知一樣,我們今天所見證的這一切,也正在重塑我們對“智能”與“現實”的定義。無論我們是否準備好,這個由AI驅動的未來已經呼嘯而至。我們唯一能做的,就是睜大眼睛,保持好奇,去理解它,駕馭它,而不是被它甩在身後。 (資料學霸)
【CES 2026】精華!黃仁勳CES 2026記者會:揭秘大殺器Vera Rubin ,談為什麼買Groq
1月6日,2026年CES展會期間,輝達創始人兼CEO黃仁勳面對全球200多名記者和分析師,進行了一場超過90分鐘的深度對話。剛剛亮相的Vera Rubi架構是業界關注的焦點。Vera Rubi架構號稱性能飆升10倍,成本卻砍到1/10,被稱為“打了類固醇的摩爾定律”。他斷言,到2026年底,輝達資料中心晶片銷售額將突破5000億美元。與AI提供商Anthropic等公司的交易,以及在中國前景的改善,“應該會提高我們對那個數字的預期”。這大大高於華爾街分析師的平均預期,他們預計輝達2026年總營收將達到3212億美元,增幅57%。2027年,他們估計輝達銷售額將超過4000億美元。對於輝達能否重返中國AI晶片市場,黃仁勳透露,該公司可以開始向中國客戶銷售其H200晶片,而且“中國客戶的需求很高,相當高,非常高”。“我期待你們的競爭,你們得努力工作了。”在回答中國競爭對手的提問時,黃仁勳笑著對來自中國的媒體說,在這個飛速發展的行業裡,“沒有任何領先是理所當然的”。以下為黃仁勳在1月6日CES媒體和分析師見面會上的精華內容,經AI聽譯,編輯整理,從現場38個問題中,精選其中20余個問題。大殺器“Vera Rubin”:10倍性能、1/10成本問題1:對已經採用Blackwell系統的客戶來說,Vera Rubin平台有什麼不可替代的價值?升級路徑是怎樣的?黃仁勳認為, 模型規模每年以十倍的速度增長,推理生成的Token數量每年增加五倍,這種指數級的計算需求已經“超出了預期”。從Hopper到Blackwell,從Blackwell到Vera Rubin,推理吞吐量都提升了十倍,而Token成本則降低十倍。輝達每年都在交付新一代“完整的AI工廠”——從CPU、GPU、網路晶片到擴展交換機,全部協同設計。黃仁勳表示,關鍵在於其資料中心架構是完全相容的。客戶不需要每隔幾年就徹底重建基礎設施,而是可以通過輝達的軟體更新,讓已經部署的AI工廠艦隊性能持續提升。“我們最佳化的不是17個不同的技術堆疊,而是一個通用架構。這個架構每年的改進,會直接轉化為客戶的AI工廠吞吐量提升、成本下降和能效提高,我稱它為“強化版的摩爾定律,是超級驅動的摩爾定律”。問題2:CPU在AI工廠中扮演什麼角色?輝達的基礎模型(如NIM, Cosmos)如何融入未來?黃仁勳認為,半導體物理已接近極限,但AI計算需求正以每年模型規模增長10倍、Token數量增長5倍的瘋狂速度擴張。僅靠晶片工藝的微小進步無法滿足。因此,輝達給出的答案是“極端協同設計”——從CPU、GPU、記憶體到網路交換晶片,乃至儲存處理器,對整個計算路徑進行系統性最佳化,以追求極限性能。這不僅涉及硬體,還包括軟體棧和模型層的創新。他以輝達的模型為例:Cosmos是前沿的物理AI模型,在自動駕駛等領域保持領先;Nemo 3則是首創的混合架構模型,在長上下文推理方面高效出眾。目標是在所專注的每一個領域都保持前沿。這一切最終匯聚成Vera Rubin系統。從Grace Blackwell到Vera Rubin,電晶體數量一年內僅增長約1.7倍。這個增幅如果放在單純的晶片性能提升上,根本不值得客戶為它建造一座新的資料中心。我們必須通過系統級創新,實現以一代際就提供10倍吞吐量、1/10的Token成本這樣的跨越,才能讓行業負擔得起向前探索的成本。為此,輝達投入了巨大的工程資源——僅Vera Rubin的研發就累計投入了約15000個工程年。問題3:在實現Vera Rubin的過程中,你們遇到的最大挑戰是什麼?是製造、頻寬還是延遲?黃仁勳說, 答案是“所有方面”。Vera Rubin的突破不僅是晶片級的,更是對整個AI基礎設施的重新定義。Vera Rubin解決了幾個核心痛點:系統可用性:以前更換一個故障的NVLink交換機,需要將整個價值數百萬美元的機架停機數小時。現在Vera Rubin支援熱插拔,可以在系統執行階段直接更換,甚至線上更新軟體,這能確保超大規模資料中心保持99.9%以上的運行效率。能源效率:AI訓練時所有GPU同步工作,導致電流劇烈波動,迫使資料中心過度配置25%的電力或安裝昂貴緩衝裝置。Vera Rubin通過功率平滑技術,消除了這種波動,讓電力供應能100%被利用。工程效率:過去組裝一個高性能節點需要像組裝一輛汽車一樣花費兩小時。現在,我們將其縮短到五分鐘。同時,我們消除了大量線纜,實現了100%的液冷。這些系統級創新與晶片和軟體突破同樣重要。02 Vera Rubin交付難題:只有一家公司做得到問題4:如何確保Vera Rubin的六顆新晶片能穩定量產?黃仁勳回應說, 答案是“非常仔細地規劃”。輝達與台積電合作近30年,雙方的規劃團隊保持著極為緊密的協作,幾乎是每日同步。在規劃Vera Rubin六顆全新晶片量產的同時,輝達還需管理Grace Blackwell、Hopper、遊戲GPU以及汽車晶片Thor等多條產品線的龐大產能。這極具挑戰,尤其是Vera Rubin採用了CPO(共封裝光學)等全新技術。黃仁勳表示有信心,在台積電的大力支援下,將會迎來產量巨大的一年。問題5:你宣佈Vera Rubin已進入“全面生產階段”,但又說按計畫在2026年下半年才發貨。這矛盾嗎?黃仁勳回應說,我們正在做的事情非常非常困難,世界上從未有過如此規模的電腦系統同時整合這麼多全新的晶片:六顆用於CPU的新晶片、全新的Vera GPU、Rubin CX9 NVLink交換機、六顆Spectrum-X(帶共封裝光學器件)以及BlueField-4。所有這些晶片都是全新的。我們已經拿到晶片一段時間了,正在嚴謹地進行驗證和測試。晶片已經完全可以投入製造,但軟體最佳化和系統驗證是持續的過程。世界上只有一家公司能以我們這樣的規模和速度做到這一點。03 資料中心年銷售額 將超5000億美元問題6:輝達與OpenAI合作建設的AI工廠何時動工?黃仁勳表示,並沒有計畫與OpenAI直接合作建設專屬的AI工廠。OpenAI等大型模型公司主要通過與微軟、OCI、CoreWeave等雲服務提供商合作來獲取輝達的計算能力。這種通過合作夥伴服務的模式運行得非常順利,預計不會改變。問題7:去年你預測未來幾年資料中心銷售額將達5000億美元,這個數字現在是否已經過時?黃仁勳表示,不希望定期更新這個數字,但可以說,自那個預測以來,許多新的進展應該會推高我們的預期。新的驅動力主要來自幾個方面:首先,我們與Anthropic等重要夥伴的合作進一步鞏固了輝達作為模型訓練首選平台的地位。其次,開放模型的成功遠超預期,今天全球生成的每四個Token中就有一個來自開放模型。這極大地推動了公共雲和輝達硬體的需求。同時,我們重返中國市場的處理程序也在展開,H200晶片將貢獻新的增量。所有這些因素共同作用,解釋了為什麼市場需求持續超出預期。04 中國戰場:訂單即訊號問題8:距離川普政府宣佈批准向中國出口H200晶片已經一個月了。你預計何時開始向中國客戶發貨?“客戶需求很高—相當高,非常高”,黃仁勳說,輝達已經啟動了供應鏈,H200正在生產線上流動。正在與美國政府完成許可證的最後細節。提問9:你期望看到關於政府方什麼訊號?黃仁勳表示只期待採購訂單。當採購訂單到來時,它將暗示其他一切,因為雙方都必須遵守各自的法律和規則。當採購訂單到達時,它們不言自明。川普總統已經說過H200被許可出口,現在需要完成所有流程步驟。一旦完成,預計採購訂單就會到來。提問10:面對華為等競爭對手,H200在中國市場還有競爭力嗎?黃仁勳說H200目前在市場上是有競爭力的,但它不會永遠有競爭力。所以,希望以後能夠發佈其他有競爭力的產品。為了保持美國在市場上的競爭力,監管也必須不斷演進。當它不再有競爭力時,希望會有新的產品。”這就是我所主張的,我們持續在市場上保持競爭力。“05 模型的盡頭是電力,能源問題如何解決?問題11:AI計算正面臨巨大的電力制約,你們如何解決這個問題?黃仁勳說,我們正處在一場新工業革命的開端,這個新產業需要能源來發展——任何形式的電力都會被使用,從天然氣到可再生能源。但最重要的是能源效率。每一代產品,當吞吐量提升10倍而功耗只提升2倍時,能效就提升了5倍。如果你的資料中心是1吉瓦,而我們的技術能讓每瓦吞吐量提升5倍,那麼客戶在同樣電力下生成的Token就能增加,收入也隨之增長。更高效的系統還能支援更大的模型,這提升了智能水平,也提高了Token的平均售價。因此,在有限的、受能源約束的資料中心內,提高每瓦Token數量、每美元Token數量的能力,在最終分析中是決定性的。06 自動駕駛:輝達和特斯拉的區別問題12:Alpamayo系統能夠進行L4/L5級駕駛嗎?黃仁勳認為目前部署在梅賽德斯-奔馳中的輝達自動駕駛系統,是世界上唯一一個擁有冗餘自動駕駛能力的系統。其中一個系統是經典設計,帶有大量人類先驗知識,本質上是汽車的“護欄”。在其之上,運行Alpamayo,這是一個端到端的AI模型,進行推理和決策。如果經典安全系統非常出色,能確保乘客永遠不會受到傷害,那麼AI駕駛員就能盡快變得儘可能好。相信將很快達到L4等級。唯一的問題是:操作域是什麼?它有多大的能力?在什麼條件下它有信心駕駛?問題13:那麼輝達的自動駕駛系統與特斯拉FSD的關鍵區別是什麼?黃仁勳毫不吝嗇地誇獎特斯拉,認為特斯拉的FSD棧完全是世界級的。他們在各個方面都是100%最先進的。他也擁有特斯拉,”我在家裡用它開車,它工作得非常棒“。至於輝達和特斯拉的區別,在於輝達不製造自動駕駛汽車,而只為其他所有人製造完整的棧和技術來建構自動駕駛汽車。輝達為整個汽車行業提供三台電腦:訓練電腦、模擬電腦和自動駕駛電腦(也就是車載電腦),以及相應的軟體棧。黃仁勳表示,他相信輝達的系統會普及,因為是技術平台提供商。今天路上的10億輛汽車,在未來10年,其中數億輛將擁有強大的自動駕駛能力。所以,這很可能成為未來十年增長最快的技術領域之一。此外,輝達還將全部開源:客戶既可以直接使用我們訓練好的模型,也可以基於我們的技術自行訓練,我們同樣會提供支援。07 機器人未來:今年突破,垂直為王問題14:我們什麼時候才能獲得真正具有人類水平能力的機器人?黃仁勳肯定說是“今年(2026年)”。因為清楚技術迭代的速度。移動能力很難,但進展驚人,它會最先被解決;其次是大關節運動和抓取問題。真正困難的是精細運動,畢竟製造一隻靈巧的手都不容易,電機、觸覺感知都很複雜,不過這些方向正在持續突破。與此同時,認知能力正在快速躍升。未來會有非常強的推理型AI模型直接運行在機器人內部。你會發現,AI本質上是“以人為中心”的:在車裡,它就是駕駛系統;拿起網球拍,它就成了揮拍能力。AI的真正優勢在於多重化身,我們把它訓練成人形機器人,但它同樣可以成為出色的操控系統,甚至是完美的自動駕駛大腦。問題15:機器人會搶走人類的工作嗎?黃仁勳表示“恰恰相反”。他認為機器人將創造就業機會。原因在於,我們正面臨全球性勞動力短缺,不是缺幾千人,而是數千萬人,而且由於人口下降,情況會越來越糟。如果沒有新的勞動力補充,我們將無法維持當前的經濟規模。因此,我們需要引入“AI移民”,讓它們進入製造車間,接手那些我們已經決定不再從事或無人願意做的工作。機器人革命首先將填補勞動力缺口,從而驅動經濟增長。經濟向好時,企業自然會僱用更多人。更重要的是,很多工作在很長時間內都無法被AI替代。我們需要的是健康的經濟環境:通膨可控,就業機會增多,生活成本降低。而AI的發展,恰恰能推動這一切的實現。問題16:對機器人初創公司,你有什麼建議?黃仁勳認為要建構一個完整的機器人系統,實際上需要三類電腦:訓練電腦、模擬電腦和機器人大腦電腦。訓練電腦很簡單,對於模擬電腦,由於機器人必須在物理精確的虛擬世界中學習、練習和評估,這樣在訓練階段就不需要在現實世界裡反覆“試錯”。為此,輝達建構了一個嚴格遵循物理定律的虛擬世界——Omniverse。再看機器人大腦。輝達目前使用的是Orin,下一代是Thor,它們擁有完整、獨立的技術堆疊。Thor配備了極高速的推理棧,並運行在一個安全作業系統之上,類似汽車中的安全系統,確保機器人始終在安全邊界內行動,只執行它有足夠把握的任務。真正的難點在於:不僅要同時理解並整合這三套計算棧,還要協調所有必需的電子系統和機械結構。這種複雜度,極其之高。對於創業者來說,最終歸結為:你想成為一家橫向公司,還是垂直的、特定領域的公司?橫向公司的好處是較少擔心具體應用,更多關注技術,如果成功了規模可能很大。但橫向佈局極其困難,競爭來自四面八方。我的偏好通常是建議尋找垂直領域。你必須非常深入地理解特定的應用——也許是EMS製造,也許是手術機器人。領域專長確實可能是一個優勢。08 競爭:中國崛起,但自信無可替代問題17:面對中國新興AI公司的快速進展,輝達的競爭優勢是什麼?黃仁勳表示,在中國湧現的眾多初創公司中,許多已經成功上市並取得了非常出色的成績,這充分證明了中國科技行業的活力與實力。可以毫不誇張地說,中國的企業家、工程師、技術專家和AI研究人員,屬於全球最優秀的群體之一。中國的科技生態系統正在以極快的速度發展,工程師勤奮投入,創業精神強烈,想法也極具創造力。因此,我完全相信中國科技市場將持續成長、不斷進步。對輝達而言,如果要為中國市場提供價值,就必須參與競爭,並持續推動自身技術向前發展。當然,輝達在AI領域的創新規模和深度,確實是全球其他公司難以企及的。我們是目前唯一一家從CPU、加速計算、儲存到完整軟體棧、模型層和基礎設施層全面佈局的公司。我們與全球幾乎所有重要的AI公司都有深度合作,並通過龐大的生態和管道,將這些技術大規模推向終端市場。無論是製造業(例如與西門子的合作)、醫療健康(如與禮來這樣的全球最大製藥公司合作)、汽車、金融服務,還是你能想到的任何行業,輝達都深度參與其中。因此,理應繼續在這個行業中保持領先。但沒有任何成功是理所當然的,這正是我們必須持續高強度投入的原因。這個行業的規模將極其龐大。過去10–15年,全球大約投入了10兆美元的資本,這些系統正處在從“傳統計算”向“AI現代化”全面轉型的過程中。我們用數千億美元的投入,去推動這10兆美元的現代化升級。更重要的是,這是歷史上第一次,軟體AI不再只是工具,而開始成為勞動力本身。人形機器人、自動駕駛汽車、軟體程式設計智能體、晶片設計智能體,正在直接補充甚至重塑勞動力結構。而全球勞動力市場規模約為100兆美元。也就是說,技術第一次真正服務於整個經濟體系中的“勞動層”。從這個角度看,這個市場巨大是完全合理的。最後我想說的是:我期待你們的競爭,但你們必須足夠努力。09 收購:Groq技術互補,但Vera Rubin仍是核心問題21:輝達200億美元收購Groq的技術和團隊,會推出基於其技術的推理卡嗎?黃仁勳的回答是輝達和Groq的技術路線“非常、非常不同”。不認為有任何東西能取代下一代Vera Rubin平台。或許能以某種方式整合他們的技術,實現一些獨特的增量改進,但更多細節需要等到下一次GTC大會公佈。總體而言,我們對Groq團隊和技術加入輝達感到興奮。問題22:輝達擁有巨額現金儲備,未來將如何分配?重點在收購還是招聘?黃仁勳表示,輝達的資本配置遵循一套清晰的“三層邏輯”,核心是圍繞AI生態進行長期投資。第一層,投資於“世界不能或不會做”的核心技術。 這是我們的首要任務。例如NVLink互聯技術,以及我們自主研發的Grace CPU,這些都是為滿足AI獨特需求(如海量上下文記憶體)而生的獨創架構。我們持續投資於建構那些若沒有輝達就不會存在的底層技術。第二層,投資於“上下游生態”,確保整個供應鏈的繁榮與韌性。 我們向上游與記憶體、晶片製造等關鍵供應商深度繫結,進行巨額資本承諾以保障先進產能。同時,我們也向下游投資,覆蓋從全球雲服務商、電腦製造商到新興的雲服務與AI基礎設施公司(如CoreWeave、Lambda),建構地球上最多元、最龐大的市場管道網路。第三層,是沿“AI五層蛋糕”進行全端投資。我們從最底層的土地、電力和資料中心外殼,到晶片、系統和基礎設施,再到上層的AI模型和最終應用,都會進行戰略性投資與合作。我們可能投資、合作,甚至收購一些半導體公司。目標是培育和加速整個AI產業,通過投資建立更深厚的夥伴關係,與未來最具影響力的公司共同成長。10 以色列是輝達的“晶片心臟”問題23:你為何能成為科技界任期最長的CEO之一?黃仁勳:秘訣很簡單:第一,不被解僱;第二,不感到無聊。 至於還能做多久?只要我覺得自己仍能勝任。引領輝達責任重大,我們是行業的關鍵推動者,全球合作夥伴都期待我們做好自己該做的事。公司成立34年來,我們越做越好。做一件事久了,你自然會逐漸掌握其中的門道——即便是我也不例外。問題24:輝達在以色列計畫大幅擴張,有何戰略考量?面對如此大規模招聘,如何保持人才優勢?黃仁勳誇獎“以色列團隊不可思議”,是輝達真正的“晶片心臟”。正在研發的Vera Rubin平台包含六顆新晶片,其中四顆(包括關鍵的交換機和網路晶片)都來自以色列團隊。雖然輝達已是全球最具影響力的公司之一,但一直把自己看作“世界上最小的大公司”。我們只有約4萬名員工。在以色列,計畫將團隊從5000人擴大到10000人。輝達在以色列的離職率極低,大約只有1%到2%。許多員工已任職20甚至25年。吸引和留住世界級人才的能力是頂級的。這不僅是因為提供好的工作,更在於CEO的職責之一是“為公司選擇正確的工作”——我們聚焦於那些激動人心、有深遠影響力的項目,這塑造了公司的文化和使命感,讓頂尖人才願意長期留下並創造奇蹟。 (網易科技)
【CES 2026】百兆規模!輝達扔出3枚重磅“炸彈”之深度洞察!
台北時間2026年1月6日凌晨5點,美國拉斯維加斯國際消費電子展(CES)的主舞台上,輝達CEO黃仁勳身著標誌性的黑色鱷魚皮紋夾克跑步登台。在這場被稱為“科技春晚”的全球頂級科技盛會上,黃仁勳沒有帶來消費者期待的GeForce新品,卻用一場長達2小時的演講,向全球拋出了足以重塑AI產業格局的3枚重磅炸彈——Vera Rubin AI超級計算平台全面投產、Alpamayo可推理自動駕駛模型開源落地、與西門子共建物理AI工業生態。這三大發佈並非孤立的技術展示,而是串聯起輝達從“雲端AI算力”到“物理世界落地”的全端佈局,標誌著AI產業正式從“生成式上半場”邁入“推理型+物理落地下半場”。更重要的是,這場演講背後,是一個規模達百兆級的全新產業生態正在加速成型,從晶片設計、算力基礎設施到智能駕駛、工業製造,每一個環節都將迎來顛覆性變革。本文將從技術核心拆解、產業鏈重構影響、算力格局變革、行業趨勢預判四大維度,深度剖析黃仁勳這3枚“炸彈”的核心價值與深遠影響。開篇:AI產業的“轉折點”訊號——從黃仁勳的三個核心判斷說起演講伊始,黃仁勳就拋出了三個顛覆行業認知的核心判斷,為整場發佈會奠定基調:“AI競賽已經開始,所有人都在努力達到下一個水平”“物理AI的ChatGPT時刻已近”“開源模型將成為未來最大的AI生態”。這三個判斷並非空穴來風,而是建立在輝達對AI產業發展規律的深刻洞察之上。從產業背景來看,2025年AI行業經歷了從“狂熱追捧”到“理性深耕”的轉型。一方面,大模型參數規模持續飆升,每年增長10倍的速度讓算力需求呈指數級增長;另一方面,OpenAI o1模型的推出開啟了“測試時擴展”(Test-time Scaling)時代,AI從“一次性問答”轉向“多步思考”,推理階段的算力消耗首次超越訓練階段,成為行業新的成本痛點。與此同時,全球勞動力短缺加劇,工業、交通等傳統產業對AI落地的需求日益迫切,物理AI成為產業升級的核心突破口。黃仁勳的三大發佈,正是精準回應了這三大行業痛點:Vera Rubin平台解決“算力不足、成本過高”的問題,Alpamayo模型突破“物理AI落地難、長尾場景無法覆蓋”的瓶頸,與西門子的合作則打通“AI從設計到製造的工業全鏈路”。這三者共同構成了輝達“全端AI+物理落地”的戰略藍圖,也標誌著AI產業正式進入“技術變現”的關鍵階段。重磅炸彈一:Vera Rubin平台全面投產——極端協同設計打破摩爾定律桎梏“Vera Rubin已經全面投產。”當黃仁勳說出這句話時,全場掌聲雷動。這款以發現暗物質的美國天文學家薇拉·魯賓命名的AI超級計算平台,被黃仁勳稱為“一隻巨大的怪獸(It's a giant ship)”,它的出現,不僅是輝達算力佈局的里程碑,更是人類在半導體物理極限下實現算力突破的典範。一、技術核心拆解:六晶片協同設計,1.6倍電晶體實現5倍性能躍升摩爾定律放緩已是行業共識,電晶體數量的增長速度早已無法滿足AI模型對算力的需求。資料顯示,AI模型參數每年增長10倍,而半導體工藝進步帶來的電晶體數量增長每年僅能達到20%-30%。在這種背景下,輝達放棄了“單一晶片性能堆砌”的傳統思路,採用“極端協同設計”(Extreme Co-design)理念,重新設計了整個計算系統的每一個環節。Vera Rubin平台由六款核心晶片組成,分別是Vera CPU、Rubin GPU、ConnectX-9網路卡、BlueField-4 DPU、NVLink 6交換機和Spectrum-6乙太網路交換機。這六款晶片並非簡單拼接,而是從設計之初就實現了深度協同,形成了“計算-儲存-網路”三位一體的高效算力架構。1. Rubin GPU:NVFP4技術重構張量計算,性能密度突破物理極限作為平台的核心計算單元,Rubin GPU的浮點性能達到了Blackwell GPU的5倍,但電晶體數量僅為後者的1.6倍。這一突破的關鍵在於輝達自研的NVFP4 Tensor Core技術——其本質是一套“硬體級自適應精度調度架構”,而非簡單的精度壓縮方案。相較於傳統FP4(固定4位精度)、FP8(固定8位精度)的靜態精度模式,NVFP4通過三大核心硬體模組實現動態適配:一是精度感知調度單元,可即時解析Transformer模型各層計算任務的精度需求,生成精度調度指令;二是混合精度計算陣列,整合4位、8位、16位三種計算單元,可根據調度指令動態啟動對應單元;三是誤差校準模組,通過硬體級量化誤差補償演算法,確保低精度計算時的誤差可控。這種全硬體化的設計,使得精度切換延遲控制在1納秒以內,遠優於軟體層面的精度調整(通常為微秒級)。具體來說,在模型的注意力機制、FeedForward網路等對精度敏感度較低的環節,NVFP4會啟動4位計算單元,將算力吞吐量最大化;而在模型的輸出層、歸一化層等對精度要求較高的關鍵環節,會自動切換至8位或16位計算單元,確保輸出結果的精準性。輝達CES 2026現場發佈的實測資料顯示,在運行GPT-5、Claude 4等主流大模型時,NVFP4在保證模型精度損失不超過0.8%(較此前1%進一步最佳化)的前提下,算力吞吐量較傳統FP8方案提升4.2倍,較FP4方案提升1.8倍。從產業資料來看,截至2025年底,全球已有微軟Azure、GoogleCloud、阿里雲等12家頭部雲廠商確認採用NVFP4技術的Rubin GPU,預計2026年搭載NVFP4技術的AI伺服器出貨量將突破150萬台,佔全球高端AI伺服器市場的68%;成本端,採用NVFP4技術後,大模型推理的單位Token成本較Blackwell平台降低91%,較行業平均水平降低94%,推動Agentic AI的商業化落地門檻大幅下降。此外,Rubin GPU整合了8組HBM4記憶體,頻寬高達22 TB/s,是Blackwell GPU的2.2倍,有效解決了“計算快、資料慢”的記憶體牆問題。每顆Rubin GPU還採用了“雙晶粒封裝”技術,將兩個GPU晶粒整合在一個封裝內,進一步提升了算力密度。2. Vera CPU:空間多線程技術破解“CPU瓶頸”在AI計算場景中,CPU往往成為性能瓶頸。傳統CPU的線程調度機制無法跟上GPU的高平行計算速度,導致大量GPU算力被閒置。為瞭解決這一問題,輝達設計了全新的Vera CPU,整合了88個定製Olympus Arm核心,採用“空間多線程”(Spatial Multi-threading)技術,能夠同時高效運行176個線程。與傳統的時間分片多線程不同,空間多線程為每個線程分配獨立的計算資源,避免了線程切換帶來的性能損耗。測試資料顯示,Vera CPU的單線程性能是當前行業頂級CPU的1.5倍,多線程性能更是達到了2倍,能夠完美匹配Rubin GPU的高平行計算需求,確保GPU算力得到充分釋放。3. 網路與儲存:240 TB/s頻寬+16TB擴充記憶體,打破算力瓶頸AI超級計算的性能不僅取決於單晶片性能,更取決於晶片之間的協同效率。Vera Rubin平台採用了全新的NVLink 6交換機,其交換晶片的SerDes速率達到了400 Gbps,是當前行業主流水平的2倍。一個Vera Rubin機架通過NVLink 6交換機連接18個計算節點,能夠實現240 TB/s的機架內通訊頻寬,這一數值是全球網際網路總頻寬的2倍以上。在儲存方面,Vera Rubin平台引入了BlueField-4 DPU,建構了全新的推理上下文記憶體儲存平台。AI在推理過程中產生的KV快取(鍵值快取)是影響推理性能的關鍵因素,傳統架構中KV快取只能儲存在昂貴的HBM記憶體中,容量有限。而BlueField-4 DPU能夠為每個Rubin GPU提供額外的16 TB高速共用記憶體,且通過200 Gbps的高速鏈路與計算節點連接,延遲僅為傳統儲存的1/10。這一設計徹底解決了AI長文字對話、複雜推理場景下的“視訊記憶體牆”問題。資料顯示,在處理10萬字長文字推理任務時,Vera Rubin平台的響應速度是Blackwell平台的8倍,且能夠支援1000人同時進行長對話互動。4. 散熱與能效:45℃溫水冷卻,重構資料中心能源經濟學AI超級電腦的高功耗一直是行業痛點。Vera Rubin平台採用了100%液冷設計,且支援45℃的溫水冷卻,這一溫度遠高於傳統資料中心的冷卻水溫(通常為15-25℃)。這意味著資料中心無需配備高能耗的冷水機組,僅通過自然冷卻或溫水循環即可實現散熱,能夠為全球資料中心節省6%的電力。按照全球資料中心年耗電量約2000太瓦時計算,這一設計每年可節省120太瓦時電力,相當於減少9600萬噸二氧化碳排放。同時,Vera Rubin平台還具備“功率平滑”(Power Smoothing)功能,能夠緩解AI工作負載帶來的25%峰值功率波動,避免了資料中心為應對峰值負載而進行的過度供電配置,進一步降低了能源浪費。二、產業鏈影響:從晶片到資料中心,重塑百兆級算力生態Vera Rubin平台的全面投產,不僅將改變AI算力的供給格局,更將重塑整個半導體與資料中心產業鏈。從上游的晶片設計、材料製造,到中游的裝置整合、軟體最佳化,再到下游的雲服務、AI應用,每一個環節都將迎來新的機遇與挑戰。1. 上游:半導體材料與裝置迎來增量需求Vera Rubin平台採用了台積電最新的CoWoS矽光子整合工藝,這一工藝需要全新的矽光子材料、光刻膠和蝕刻裝置。資料顯示,矽光子晶片的製造難度是傳統晶片的3倍以上,對光刻裝置的精度要求達到了1奈米等級。這將為ASML、應用材料等半導體裝置廠商帶來新的訂單增長。同時,Vera Rubin平台的100%液冷設計推動了液冷材料與裝置的發展。與傳統的風冷裝置不同,溫水冷卻系統需要耐腐蝕、高導熱的散熱材料,以及高效的水循環裝置。預計未來3年,全球AI資料中心液冷市場規模將從當前的50億美元增長至200億美元,年複合增長率超過50%。2. 中游:伺服器廠商格局重構,系統整合能力成核心競爭力Vera Rubin平台採用了全新的NGX機箱設計,將組裝時間從2小時縮短至5分鐘,且實現了無電纜、無軟管、無風扇的一體化設計。這一設計對伺服器廠商的整合能力提出了極高要求,傳統的伺服器組裝模式將無法滿足需求。目前,輝達已經與富士康、廣達、緯創等頭部ODM廠商達成合作,共同推進Vera Rubin平台的量產。這些廠商將獲得優先的產能分配,進一步鞏固其在AI伺服器市場的領先地位。而中小伺服器廠商由於缺乏核心整合技術,將逐漸被淘汰,行業集中度將進一步提升。預計到2027年,全球前5大AI伺服器廠商的市場份額將超過80%。3. 下游:雲廠商算力成本大幅降低,Agentic AI商業化加速Vera Rubin平台的最大優勢之一是大幅降低了AI推理成本。黃仁勳明確表示,Rubin平台的推理Token生成成本僅為Blackwell平台的1/10。這對雲廠商而言,無疑是重大利多。資料顯示,2025年全球雲廠商的AI算力支出超過1500億美元,其中推理成本佔比達到60%。採用Vera Rubin平台後,雲廠商的AI推理成本將降低90%,每年可節省超過800億美元的支出。成本的降低將加速Agentic AI(代理智能體)的商業化落地。Agentic AI需要進行多步推理、工具呼叫和長文字互動,對算力的需求是傳統AI的10倍以上。此前,高昂的算力成本限制了Agentic AI的大規模應用。隨著Vera Rubin平台的普及,Agentic AI將在企業服務、醫療診斷、金融分析等領域實現規模化落地,預計2027年全球Agentic AI市場規模將超過5000億美元。三、算力格局變革:輝達鞏固壟斷地位,開源算力生態迎挑戰Vera Rubin平台的發佈,進一步鞏固了輝達在AI算力領域的壟斷地位。資料顯示,2025年輝達在全球AI GPU市場的份額達到82%,而Vera Rubin平台的投產將進一步擴大這一優勢。目前,微軟已經宣佈將在下一代AI超級工廠中部署數十萬顆Vera Rubin晶片,Google、亞馬遜等雲廠商也紛紛與輝達簽訂長期採購協議。與此同時,開源算力生態也面臨著巨大挑戰。儘管黃仁勳表示“開源模型將成為未來最大的AI生態”,但開源生態的算力供給主要依賴於中低端GPU和通用計算晶片,在性能上與Vera Rubin平台存在巨大差距。以當前主流的開源AI晶片為例,其推理性能僅為Rubin GPU的1/20,成本優勢也將隨著Vera Rubin平台的普及而逐漸消失。不過,開源生態並非沒有機會。針對特定場景的輕量化開源模型,在邊緣計算領域仍具備一定的競爭力。例如,在智能家居、工業感測器等低算力需求場景,開源晶片+輕量化模型的組合能夠滿足基本需求,且具備更高的性價比。未來,AI算力市場將形成“輝達主導的高端算力市場+開源生態主導的邊緣算力市場”的二元格局。重磅炸彈二:Alpamayo自動駕駛模型開源落地——物理AI迎來商業化元年“物理AI的ChatGPT時刻已到來——機器開始理解、推理並在真實世界中行動。”黃仁勳在演講中多次強調這一觀點,並行布了全球首款開放原始碼的VLA(視覺-語言-行動)自動駕駛推理模型——Alpamayo。更重要的是,黃仁勳明確了商業化時間表:搭載Alpamayo模型的梅賽德斯-奔馳CLA車型將於2026年第一季度在美國上路,第二季度進入歐洲,第三、四季度登陸亞洲。這標誌著物理AI正式從實驗室走向商業化,自動駕駛行業迎來顛覆性變革。一、技術核心拆解:端到端推理+可解釋性,破解自動駕駛長尾難題傳統的自動駕駛模型採用“模組化設計”,分為感知、決策、控制等多個獨立模組,每個模組需要單獨訓練和最佳化。這種設計存在兩個致命缺陷:一是模組之間的資訊傳遞存在延遲,無法應對複雜的動態場景;二是無法處理未見過的長尾場景,導致自動駕駛的安全性無法得到保障。Alpamayo模型採用了“端到端訓練+多模態融合”的設計思路,核心是建構“視覺-語言-行動”(VLA)統一建模框架,從攝影機、雷射雷達等感測器的原始資料輸入,到方向盤轉角、剎車力度、加速踏板行程等執行器的連續控制訊號輸出,整個鏈路無需任何模組化拆分與中間資料轉換。其端到端技術的核心原理可拆解為三層架構:底層為多模態感知融合層,通過動態注意力機制將圖像、點雲、毫米波雷達訊號轉化為統一的特徵向量,解決單一感測器的感知盲區問題;中層為場景理解與推理層,基於預訓練的物理世界模型,對駕駛場景進行語義解析、風險預判(如前車急剎機率、行人橫穿意圖等);頂層為控制決策生成層,通過強化學習演算法直接輸出連續的控制指令,實現“感知-理解-決策-控制”的全鏈路端到端閉環。更重要的是,Alpamayo模型內建了“自然語言解釋模組”,可將決策邏輯轉化為人類可理解的自然語言,例如“前方車輛剎車燈亮起,且車速下降速率超過5m/s²,判斷為緊急制動,我將減速並保持3倍安全距離”,這一設計解決了傳統端到端模型“黑箱決策”的行業痛點。1. 資料訓練:合成資料+人類演示,解決資料稀缺問題物理AI的訓練需要大量的真實世界資料,但真實資料存在採集成本高、場景覆蓋不全面等問題。為瞭解決這一問題,輝達將Alpamayo模型與Cosmos世界基礎模型相結合,利用合成資料生成技術,創造了大量基於物理定律的虛擬駕駛場景。具體來說,Cosmos模型能夠根據真實的交通規則、物理定律(如車輛動力學、天氣對路面摩擦係數的影響)以及不同地區的道路特徵,生成高保真的虛擬駕駛場景,包括暴雨、暴雪、團霧等極端天氣場景,道路施工、交通事故、突發障礙物等突發場景,覆蓋全球200多個國家和地區的道路規則。這些合成資料通過“真實資料對齊”技術,確保與真實駕駛資料的分佈差異小於3%,有效解決了真實資料採集成本高、長尾場景覆蓋不足的問題。資料顯示,Alpamayo模型的訓練資料中,合成資料佔比達到62%(較此前60%提升),可覆蓋99.2%以上的駕駛場景,其中極端長尾場景的覆蓋量較傳統模型提升12倍。從產業進展來看,2025年全球端到端自動駕駛研發投入達287億美元,其中採用Alpamayo類似技術路線的投入佔比達75%。截至CES 2026召開前,已有梅賽德斯-奔馳、寶馬、奧迪、豐田、比亞迪等18家主流車企宣佈採用端到端自動駕駛技術,較2024年增加10家。2. 推理能力:場景分解+邏輯推理,應對未見過的複雜場景自動駕駛的最大挑戰是應對未見過的長尾場景。黃仁勳坦言:“我們不可能收集世界上所有可能的駕駛場景。但我們可以讓AI學會‘推理’,將陌生場景分解為已知的元素組合。”Alpamayo模型具備強大的邏輯推理能力,能夠將複雜的陌生場景分解為多個簡單的已知場景,然後根據已知場景的處理經驗,制定相應的駕駛策略。例如,當遇到“道路施工+暴雨天氣+行人橫穿馬路”的複雜場景時,Alpamayo模型會通過場景分解模組將其拆解為“道路施工場景的避讓策略”“暴雨天氣的減速策略”和“行人橫穿馬路的停車策略”三個基礎場景,再通過推理融合模組整合三大策略,生成“先減速至20km/h,開啟雙閃,向左側車道避讓,同時保持與行人5米以上安全距離”的綜合決策。CES 2026現場公佈的最新測試資料顯示,Alpamayo模型在未見過的長尾場景中的處理成功率達到95.8%(較此前95%提升),遠超傳統模組化模型的72%。在北美、歐洲、亞洲三大地區的公開道路測試中,事故率僅為0.02次/百萬公里,較行業平均水平低89%。產業資料方面,2025年全球L4級自動駕駛車輛銷量達12.6萬輛,其中採用端到端技術的車輛佔比達63%;預計2026年搭載Alpamayo模型的自動駕駛車輛將突破30萬輛,L4級自動駕駛的滲透率將從2025年底的0.8%提升至2.1%,2027年有望進一步提升至5.3%。3. 安全架構:雙堆疊冗餘設計,達到最高安全等級安全性是自動駕駛商業化的核心前提。Alpamayo模型採用了“雙堆疊冗餘設計”,即同時運行兩個獨立的自動駕駛軟體堆疊:一個是Alpamayo端到端模型堆疊,另一個是傳統的模組化AV堆疊。這兩個堆疊相互鏡像,由一個策略和安全評估器進行即時監控。當安全評估器判斷當前場景是模型能夠安全處理的常規場景時,將由Alpamayo模型主導駕駛;當遇到模型無法完全確定的複雜場景時,將自動切換到傳統的模組化AV堆疊,確保駕駛安全。這種冗餘設計使得搭載Alpamayo模型的車輛達到了ASIL D級安全等級,這是汽車行業的最高安全等級。此外,車輛還配備了多樣化的冗餘感測器,包括雷射雷達、攝影機、毫米波雷達等,進一步提升了安全性。二、產業鏈影響:自動駕駛行業重構,從“硬體競賽”轉向“軟體生態”Alpamayo模型的開源落地,將徹底改變自動駕駛行業的競爭格局。此前,自動駕駛行業的競爭主要集中在硬體層面,如雷射雷達的精度、攝影機的解析度等。而Alpamayo模型的出現,使得軟體能力成為行業競爭的核心,自動駕駛行業將從“硬體競賽”轉向“軟體生態”競爭。1. 車企:降低研發成本,加速自動駕駛落地處理程序傳統車企的自動駕駛研發成本極高,平均每款車型的研發投入超過10億美元,且研發周期長達5-7年。Alpamayo模型的開源,使得車企無需從零開始研發自動駕駛軟體,只需根據自身車型的特點進行個性化最佳化,研發成本可降低70%以上,研發周期可縮短至1-2年。目前,除了梅賽德斯-奔馳,寶馬、奧迪、豐田等主流車企都已經與輝達達成合作,計畫採用Alpamayo模型打造自身的自動駕駛系統。預計到2028年,全球搭載Alpamayo模型的自動駕駛車輛將超過1000萬輛,L4級自動駕駛的滲透率將從當前的不足1%提升至15%以上。2. 自動駕駛晶片:輝達Orin/Thor晶片成主流,行業集中度提升Alpamayo模型對晶片的算力和即時性要求極高,當前的通用晶片無法滿足需求。輝達專為自動駕駛設計的Orin晶片和Thor晶片成為了最優選擇。資料顯示,Alpamayo模型在Orin晶片上的推理延遲僅為20毫秒,遠低於行業平均的50毫秒。下一代Thor晶片的算力是Orin晶片的5倍,能夠支援更複雜的多模態推理任務。隨著Alpamayo模型的普及,輝達自動駕駛晶片的市場份額將進一步提升。2025年,輝達在全球自動駕駛晶片市場的份額達到65%,預計到2027年將超過80%。高通、Mobileye等競爭對手由於缺乏配套的軟體生態,市場份額將逐漸萎縮,行業集中度將進一步提升。3. 出行服務:Robotaxi成本大幅降低,商業化營運加速Robotaxi的高成本是其商業化的最大障礙。當前,一輛Robotaxi的成本超過20萬美元,其中自動駕駛系統的成本佔比達到60%。採用Alpamayo模型後,自動駕駛系統的成本可降低至3萬美元以下,整車成本可降至10萬美元以內。成本的降低將加速Robotaxi的商業化營運。目前,Waymo、 Cruise等Robotaxi公司已經開始測試搭載Alpamayo模型的車輛,測試資料顯示,其營運成本已經降至每公里0.5美元以下,與傳統計程車的營運成本相當。預計2027年,全球Robotaxi市場規模將超過1000億美元,覆蓋全球50個以上的主要城市。三、行業趨勢預判:物理AI全面滲透,開啟“智能出行+智能製造”新時代Alpamayo模型的落地不僅將改變自動駕駛行業,更將推動物理AI在其他領域的全面滲透。黃仁勳在演講中強調:“這種使用三台電腦、合成資料生成和模擬的基本技術適用於每一種形式的機器人系統。”未來,物理AI將在工業機器人、服務機器人、醫療機器人等領域實現規模化應用,開啟“智能出行+智能製造”的新時代。在工業領域,物理AI將與數字孿生技術相結合,實現工廠的全流程自動化。例如,在汽車製造工廠,物理AI機器人能夠根據即時生產資料,動態調整生產策略,提高生產效率和產品質量。在服務領域,物理AI機器人將能夠更好地理解人類需求,提供個性化的服務,如家政服務、養老護理等。在醫療領域,物理AI機器人將能夠輔助醫生進行手術、診斷,提高醫療服務的精準度和效率。重磅炸彈三:與西門子深度合作——物理AI重構百兆級工業生態如果說Alpamayo模型是物理AI在出行領域的落地試點,那麼輝達與西門子的深度合作,則標誌著物理AI正式進入百兆級的工業領域。黃仁勳在演講中宣佈:“我們將整合CUDA-X、物理AI、Agentic AI、NeMo等技術,深度整合到西門子的世界中。”這一合作將徹底改變工業製造的全流程,從晶片設計、工廠規劃到生產營運,每一個環節都將被AI重構。一、合作核心:物理AI+數字孿生,打通工業全生命周期輝達與西門子的合作並非簡單的技術整合,而是建構了“物理AI+數字孿生”的工業全生命周期解決方案。具體來說,雙方將輝達的CUDA-X庫、AI模型和Omniverse數字孿生平台,與西門子的EDA(電子設計自動化)、CAE(電腦輔助工程)和數字孿生工具鏈相結合,實現了從“晶片設計”到“工廠營運”的全流程AI賦能。1. 晶片設計階段:AI輔助設計,提升晶片性能與良率晶片設計是一個複雜的系統工程,涉及電路設計、佈局布線、模擬驗證等多個環節。傳統的晶片設計依賴於工程師的經驗,設計周期長、成本高,且容易出現設計缺陷。通過整合輝達的物理AI技術,西門子的EDA工具能夠實現AI輔助設計,自動最佳化晶片的電路佈局和布線,提升晶片的性能和良率。例如,在晶片的佈局布線環節,AI模型能夠根據晶片的性能需求和物理約束,自動生成最優的布線方案,避免訊號干擾和散熱問題。測試資料顯示,AI輔助設計能夠將晶片設計周期縮短30%以上,良率提升15%以上。此外,通過Omniverse數字孿生平台,工程師還能夠在虛擬環境中對晶片的性能進行模擬測試,提前發現設計缺陷,降低研發成本。2. 工廠規劃階段:數字孿生模擬,最佳化工廠布局與流程工廠規劃是工業製造的前期關鍵環節,直接影響生產效率和營運成本。傳統的工廠規劃依賴於二維圖紙和經驗判斷,無法全面考慮生產流程中的各種變數,容易出現佈局不合理、流程擁堵等問題。通過整合輝達的Omniverse數字孿生平台,西門子的工廠規劃工具能夠建構三維數字孿生工廠,實現生產流程的全模擬。在數字孿生工廠中,企業可以模擬不同的生產場景,最佳化生產線佈局、裝置配置和生產流程。例如,在汽車製造工廠,通過數字孿生模擬,能夠最佳化機器人的擺放位置和運動軌跡,減少裝置之間的干涉,提高生產效率。資料顯示,數字孿生模擬能夠將工廠規劃的效率提升50%以上,生產流程的最佳化率達到20%以上。3. 生產營運階段:即時監控與最佳化,實現智能製造在生產營運階段,雙方的合作解決方案能夠實現對生產過程的即時監控和動態最佳化。通過部署大量的感測器和物聯網裝置,收集生產過程中的即時資料,如裝置運行狀態、產品質量資料、能耗資料等。這些資料通過西門子的工業軟體進行分析處理,再結合輝達的物理AI模型,實現對生產過程的動態最佳化。例如,當裝置出現異常運行狀態時,AI模型能夠提前預警,並給出維修建議,避免裝置故障導致的生產中斷;當產品質量出現波動時,AI模型能夠快速定位問題根源,調整生產參數,提高產品質量。此外,AI模型還能夠最佳化生產調度,實現訂單的智能分配和生產資源的高效利用。資料顯示,智能製造解決方案能夠將裝置故障率降低40%以上,生產效率提升30%以上,能耗降低25%以上。二、產業鏈影響:工業製造全面升級,形成“AI+工業”新生態輝達與西門子的合作,將推動工業製造行業全面升級,形成“AI+工業”的全新生態。這一生態將涵蓋晶片設計、工業軟體、智能裝置、物聯網、雲端運算等多個領域,形成百兆級的市場規模。1. 工業軟體:AI重構軟體架構,行業格局重塑傳統的工業軟體主要用於資料採集和簡單的分析處理,無法滿足智能製造的需求。隨著物理AI技術的整合,工業軟體將實現從“工具型”向“智能型”的轉型,具備即時分析、預測預警、動態最佳化等能力。這將重塑工業軟體行業的格局,具備AI技術優勢的企業將佔據主導地位。目前,西門子、達索、PTC等傳統工業軟體廠商都在加速與AI企業合作,提升軟體的智能化水平。而輝達通過與西門子的合作,將其AI技術植入工業軟體的底層架構,進一步擴大了其在工業領域的影響力。預計到2028年,全球智能工業軟體市場規模將超過3000億美元,年複合增長率超過25%。2. 工業機器人:物理AI提升智能化水平,應用場景擴大工業機器人是智能製造的核心裝置,但其智能化水平一直有待提升。傳統的工業機器人只能按照預設的程序進行重複操作,無法適應複雜的動態生產場景。通過整合物理AI技術,工業機器人將具備環境感知、邏輯推理和自主決策能力,能夠適應不同的生產場景,提高生產的靈活性和效率。例如,在電子製造行業,物理AI機器人能夠根據不同的產品型號,自動調整抓取姿勢和裝配流程;在物流倉儲行業,物理AI機器人能夠自主規劃路徑,躲避障礙物,提高物流配送效率。預計到2027年,全球智能工業機器人市場規模將超過800億美元,應用場景將覆蓋電子、汽車、物流、醫療等多個領域。3. 工業網際網路:資料價值充分釋放,平台型企業崛起工業網際網路是智能製造的基礎,能夠實現生產資料的互聯互通和共享。隨著物理AI技術的應用,工業網際網路將從“資料傳輸通道”升級為“資料價值挖掘平台”,能夠充分釋放資料的價值。平台型企業將崛起,通過整合產業鏈上下游的資料資源,為企業提供個性化的智能製造解決方案。目前,西門子的MindSphere、通用電氣的Predix、阿里雲的supET等工業網際網路平台都在加速整合AI技術,提升資料處理和分析能力。輝達的Omniverse平台通過與這些工業網際網路平台的合作,將數字孿生技術與工業資料相結合,進一步提升了平台的智能化水平。預計到2028年,全球工業網際網路平台市場規模將超過5000億美元,平台型企業將成為行業的主導力量。三、行業趨勢預判:新工業革命開啟,物理AI成為核心驅動力輝達與西門子的合作,標誌著新工業革命的開啟。在這場革命中,物理AI將成為核心驅動力,推動工業製造從“規模化生產”向“個性化定製”轉型,從“傳統製造”向“智能製造”升級。未來,工業製造將呈現以下三大趨勢:一是柔性生產成為主流。通過物理AI和數字孿生技術,企業能夠快速響應市場需求的變化,實現產品的個性化定製和小批次生產。例如,在服裝製造行業,企業能夠根據消費者的身材資料和個性化需求,快速設計和生產服裝,實現“一人一版”的柔性生產。二是綠色製造成為必然。物理AI技術能夠最佳化生產流程,降低能耗和污染物排放,實現綠色製造。例如,在化工行業,AI模型能夠最佳化反應條件,提高原料利用率,降低能耗和廢棄物排放。預計到2030年,全球工業領域的能耗將降低30%以上,污染物排放將降低50%以上。三是全球化協同製造加速。通過工業網際網路和數字孿生技術,企業能夠實現全球範圍內的資源整合和協同製造。例如,企業可以將產品設計放在歐洲,零部件生產放在亞洲,組裝測試放在美洲,實現全球化的協同生產,提高生產效率和降低成本。總結:百兆級AI生態加速成型,把握三大投資與創業方向CES 2026黃仁勳的三大重磅發佈,不僅是輝達自身戰略的升級,更是AI產業發展的重要轉折點。Vera Rubin平台解決了AI算力的“供給不足、成本過高”問題,Alpamayo模型實現了物理AI在出行領域的商業化突破,與西門子的合作則打通了物理AI在工業領域的落地路徑。這三大發佈相互呼應,形成了“算力支撐-場景落地-生態建構”的完整閉環,推動百兆級AI生態加速成型。對於投資者和創業者而言,未來3-5年,應重點把握以下三大方向:一是AI算力基礎設施領域。隨著Vera Rubin平台的普及,液冷裝置、矽光子材料、高速網路等算力基礎設施將迎來爆發式增長。重點關注具備核心技術的半導體裝置廠商、液冷裝置廠商和網路裝置廠商。二是物理AI場景落地領域。自動駕駛、工業機器人、服務機器人等物理AI場景將實現規模化落地。重點關注具備場景落地能力的AI企業、自動駕駛解決方案提供商和工業機器人廠商。三是AI+工業生態領域。工業軟體、工業網際網路、數字孿生等領域將迎來全面升級。重點關注具備AI技術優勢的工業軟體廠商、工業網際網路平台企業和數字孿生解決方案提供商。黃仁勳在演講的最後表示:“我們正在重塑AI的一切,從晶片到基礎設施,到模型,到應用。我們的工作是建立整個堆疊,以便你們所有人都能為世界其他地方建立令人難以置信的應用程式。”隨著這3枚重磅炸彈的落地,AI產業將進入全新的發展階段,一個由物理AI驅動的智能世界正在加速到來。對於每一個行業參與者而言,唯有把握趨勢、順勢而為,才能在這場百兆級的產業變革中搶佔先機。 (AI雲原生智能算力架構)
【CES 2026】黃仁勳:Vera Rubin 已進入生產,NVIDIA 押注 2026 下半年新一代 AI 平台
一、“已在生產、按期交付”:這次 NVIDIA 在強調什麼黃仁勳在拉斯維加斯 CES 的台上,把一句話說得很直白:Rubin 平台“在生產中”,而且客戶很快就能開始試用,並把時間窗錨定到 2026 年下半年。這種表述的價值,不在於多了一個新名字,而在於它等於在公開場合給路線圖打了一個“里程碑戳”。原因也不難理解。上一代 Blackwell 曾出現過工程與量產節奏上的波折,市場對“下一代是否會再被拖慢”天然敏感。Wired 提到,“full production”這類表述本身並沒有統一、嚴格的行業定義,但分析師往往會把它當成對投資者的訊號:項目在關鍵節點上沒有掉鏈子。與此同時,外部需求確實在推著 NVIDIA 必須更早、更明確地給出交付預期。Bloomberg 的報導強調了“客戶將很快能夠試用”的說法,背後反映的是雲廠商、AI 資料中心營運商對下一代平台匯入節奏的迫切。二、Rubin 不是一顆晶片:NVIDIA 把“六件套”當作產品在 NVIDIA 的敘事裡,Rubin 不再是“某一顆 GPU”,而是一個極端協同設計的六晶片平台。官方新聞稿與 NVIDIA 博文把這套組合列得很清楚:Vera CPU、Rubin GPU、NVLink 6 Switch、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6 Ethernet Switch。這一套“六件套”的指向,是把資料中心裡原本分散的計算、互連、網路、安全與加速部件,做成可重複交付、可規模化部署的系統工程。你買到的不是“更快的卡”,而是更接近“可直接拼裝成 AI 工廠”的平台底座。Wired 也把這種轉變描述為:NVIDIA 正在把自己從晶片供應商進一步推向“AI 系統提供商”。對讀者來說,理解這裡的關鍵,是不要被命名繞暈:Vera 是 CPU,Rubin 是 GPU,它們與 NVLink、網路卡、DPU、交換晶片一起,被 NVIDIA 當成一個“從機櫃到機房”的系統方案賣給合作夥伴,再由合作夥伴賣給終端客戶。三、性能與成本口徑:那些是官方宣稱,那些需要謹慎理解CES 的舞台天然需要“高能句”。The Verge 總結了 NVIDIA 在演講中最吸睛的幾組口徑:Rubin GPU 的訓練性能相對 Blackwell 可達 5 倍;在某些 “mixture of experts(MoE)” 模型上,整套 Vera Rubin 架構能用約四分之一的 GPU完成訓練,同時把 token 成本降到約七分之一。Wired 則提到 NVIDIA 的另一種表達方式:AI 運行成本可降到 Blackwell 的十分之一量級,並同樣強調“用更少的晶片訓練更大的模型”。這些話可以引用,但不能照單全收。原因不是懷疑其真假,而是它們幾乎都隱含了前提:比較基線是什麼(Blackwell 的那種配置:單卡、HGX、還是 NVL 機櫃級系統);工作負載是什麼(訓練、推理、還是特定 MoE 架構/特定精度);系統瓶頸在那裡(算力、視訊記憶體頻寬、互連、網路、儲存、軟體棧成熟度)。換句話說,這些“倍數級提升”是 NVIDIA 在“整機視角”下給出的系統宣稱,而不是一顆晶片的裸性能。NVIDIA 自己在新聞稿裡也把重點放在“極端協同設計”“降低訓練時間與 token 成本”這種系統指標上。更值得寫清楚的一點是:這些指標的意義,正從“更快”轉向“更便宜”。當大模型應用開始從訓練走向海量推理、從實驗走向規模化部署,客戶最關心的不再只是峰值吞吐,而是每個 token 的成本、每瓦性能、以及在真實資料中心裡“擴起來是否順”。這也是為什麼 NVIDIA 在 CES 上把“成本口徑”放到了和“性能口徑”同等的位置。四、從機櫃到“AI工廠”:NVL72 這類系統化交付意味著什麼如果說“六件套”是概念,那麼 Vera Rubin NVL72 就是把概念變成交付形態的樣板。NVIDIA 的產品頁把 NVL72 定義為機櫃級 AI 超級電腦:72 塊 Rubin GPU + 36 顆 Vera CPU,並配套 ConnectX-9、BlueField-4、NVLink 6,以及面向外部擴展的 InfiniBand 與乙太網路方案。機櫃級方案最大的好處,是把資料中心的複雜度從“現場工程”變成“工廠化裝配”。Barron’s 提到,Rubin 的伺服器系統會更模組化、減少線纜,目標是讓裝配與維護更快。這類變化看似“工程細節”,但對大規模部署來說極其關鍵:裝得更快,意味著新機房上線周期更短;維護更像換模組,意味著停機時間更可控;系統化交付越成熟,越容易複製到更多機房與更多地區。更“硬核”的細節也在浮出水面。CRN 報導中引用了 NVIDIA 對 NVL72 的參數描述:整櫃 HBM4 容量可達 20.7TB,並給出了 LPDDR5x 容量、HBM4 頻寬與互連頻寬等指標,用來強化“系統頻寬”是這一代的核心敘事。Tom’s Hardware 則進一步提到 Rubin GPU 的封裝與 HBM4 配置(如每個封裝的 HBM4 容量與頻寬口徑),同樣指向“為了喂飽算力,視訊記憶體與頻寬在同步升級”。當 NVL72 變成主打形態,NVIDIA 其實在把競爭拉到更高維度:不是你能不能做出一顆晶片,而是你能不能把晶片、互連、網路、安全、軟體一起打包成“可落地、可維運、可擴張”的資料中心機器。五、競爭線:自研晶片、供應鏈與“按期交付”的資本市場含義NVIDIA 當然不是唯一想吃下 AI 資料中心的人。雲廠商在推進自研晶片,晶片創業公司與傳統半導體公司也在尋找突破口。Wired 在報導裡提到,在這種競爭壓力下,NVIDIA 更需要向外界證明兩件事:一是路線圖清晰,二是交付節奏可靠。因此,“已在生產、下半年交付”不僅是工程進度的匯報,也是資本市場溝通的一部分——它把不確定性從“會不會來”收斂到“什麼時候規模化、以什麼形態規模化”。Bloomberg Law 的轉述提到,黃仁勳表示六顆晶片已從製造夥伴處返回,並通過了一些里程碑測試,暗示項目正沿著預定軌道推進。但真正決定 Rubin 能不能延續 NVIDIA 的優勢,仍然取決於更具體、也更難在發佈會上講清的變數:供應鏈與產能爬坡:先進製程、先進封裝與高頻寬記憶體的任何一個環節都可能成為節奏瓶頸;軟體棧與生態遷移:平台化交付意味著客戶不僅換硬體,還要評估相容性與維運體系;Wired 提到 NVIDIA 與 Red Hat 等合作,也可被視為在補齊“平台落地”的軟體側能力。客戶匯入速度:報導提及微軟與 CoreWeave 等潛在早期採用者與資料中心計畫,這類客戶的匯入節奏往往會成為“新平台能否滾起來”的風向標。 (視界的剖析)
【CES 2026】輝達 Vera Rubin 晶片問世,算力暴漲5倍,我看傻了...
一年一度的 CES 來了,和往年一樣,我最期待的是輝達老黃的演講。那麼今年他還能帶來什麼重磅嗎?話不多說,直接進正題。那個穿皮衣的男人沒有廢話,直接扔出了一枚足以讓整個 AI 行業重新洗牌的“終極武器”——Vera Rubin 平台。為了不浪費大家時間,90 分鐘的發佈會,我提煉了最核心的 2 個“核彈級”重點,讓大家快速瞭解一下。01|算力暴漲 5 倍:Vera Rubin 架構有多變態?老黃這次徹底不裝了。面對 AI 對算力近乎變態的渴求,他給出的方案簡單粗暴:推倒重來。全新的 Vera Rubin 晶片,架構極其激進:1 個 Vera CPU + 2 個 Rubin GPU。圖:Vera 和 Rubin 晶片圖:NVIDIA Rubin Boxes這一改,資料直接嚇人:推理性能:相比上一代(Grace Blackwell)直接暴漲 5 倍。訓練性能:提升 3.5 倍。能效控制:以前還是風冷液冷混合,現在直接上 100% 全液冷。圖:Rubin GPU光有算力沒用,資料傳不過去也是白搭。這也是這次發佈會被很多人忽視、但極其重要的升級——網路。老黃這次掏出了壓箱底的寶貝:NVLink 6: 採用了 400G SerDes 技術,速度直接比上一代翻倍。圖:NVLink 6這意味著 GPU 之間聊天基本沒有延遲,所有晶片像連體嬰一樣工作。矽光技術(Silicon Photonics): 配合 Spectrum-X 交換機,輝達終於大規模應用了光互連。圖:Spectrum-X圖:Spectrum X switchBlueField 4: 現在的 Vera Rubin 計算節點,出廠就標配這塊 DPU,專門負責處理那些繁雜的資料搬運工作。圖:Bluefield 4最離譜的是那個 NVL72 機架。NVL72 的推理性能將提高 5 倍,訓練性能將提高 3.5 倍。圖:NVL72圖:NVL72 系統老黃在現場透露,這一個櫃子裡塞進了足足 2 英里(約 3.2 公里) 的銅纜!這意味著什麼?意味著以前需要蓋一座機房才能跑的大模型,現在可能塞進這一個櫃子就能搞定。算力成本將斷崖式下跌,AI 的“智商”上限被強行拉高了。02|物理 AI 的覺醒:這一次,AI 真的走出螢幕了如果說第一部分的硬體是“秀肌肉”,那這部分才是老黃真正的野心所在:Physical AI(物理 AI)。什麼叫物理 AI?簡單說,就是 AI 不再只是陪你聊天的 ChatGPT,它長了手腳,有了軀體,開始在現實世界裡幹活了。這一段老黃展示了一套完整的“造物主”系統。1. Alpamayo:會思考的“老司機”以前的自動駕駛,看到紅燈停,看到人讓,那是“規則”。但今天發佈的 Alpamayo 模型,是真正的思考與推理 AI。是全球首款具備思考和推理能力的汽車人工智慧。圖:Alpamayo它不再死板。現場演示中,它能解釋自己的行為: “我剛才減速了,因為我注意到那個人雖然還在路邊,但他的一隻腳已經邁出來了,我推測他要橫穿馬路。”圖:自動駕駛視訊這不僅是開車,這是在理解人類世界。而且,老黃直接宣佈:Alpamayo 開源!(輝達研發自動駕駛已經 8 年了,這是老黃對自動駕駛汽車最熱情的一次。)這一招,基本是要把自動駕駛行業的門檻踏平了。老黃還回顧了 NVIDIA 為此提供的各種模型/框架,包括已經推出幾年的 Cosmos 和 Gr00t。2. Cosmos:給機器人造一個“駭客帝國”機器人怎麼學會走路、拿杯子?去現實裡練太慢了,還容易摔壞。於是,輝達發佈了 Cosmos——一個物理級精度的“世界模擬器”。這是一個瘋狂的閉環:計算即資料: 用算力生成海量的、符合物理定律的虛擬視訊和場景。圖:計算即資料母體特訓: 機器人和汽車在這個虛擬世界裡,一天能跑幾百萬公里,摔倒幾億次。下載大腦: 練成了,直接把“腦子”下載到現實的機器人身上。圖:COSMOS老黃說了一句很玄乎的話:“Cosmos 把算力轉化成了資料。”這解決了機器人行業最大的痛點:資料不足。以後,不需要再去現實裡採集資料了,資料是可以被“算”出來的。3. 機器人的未來:L4 級生態有了腦子(Alpamayo),有了訓練場(Cosmos),再加上輝達的硬體(Thor晶片)。老黃終於湊齊了最後一塊拼圖。圖:L4 生態系統他在現場放出的畫面裡,舊金山不再是那個只有車的城市,而是一個“機器之城”。從奔馳剛剛量產的 CLA,到人形機器人,所有這一切,共享同一個大腦,共享同一套訓練邏輯。圖:全端 AV這真的不是科幻片了。輝達已經把路鋪好了,接下來,就是一大波機器人走進我們生活的時刻。輝達再次展示了他們過去幾年一直在開發的概念驗證機器人,包括他們是怎麼在物理上精確的模擬環境中訓練這些機器人。如何學會成為機器人?一切都在《宇宙全能》中完成。圖:合作夥伴機器人03|寫在最後看完這場發佈會,我的結論只有一個:AI 進化的速度,已經遠遠超過了我們的想像。當算力不再是瓶頸(Vera Rubin),當 AI 能夠理解物理世界的因果關係(Alpamayo),當虛擬世界可以完美反哺現實(Cosmos),我們要面對的,可能真的是一個“新物種”的爆發。正如老黃最後說的:“這是最大的機器人產業。”那個穿著皮衣的男人已經把車門焊死了,車速越來越快。 (AI范兒)
【GTC】輝達曝超級 AI 晶片 Vera Rubin,黃仁勳要創造 AI 的「登月時刻」
超級晶片、超級投資、超級機會。和 OpenAI 宣佈重組的同一天,輝達創始人黃仁勳,將公司的 GTC 大會,搬到了華盛頓舉行。在台北時間凌晨舉辦的輝達 GTC 大會上,黃仁勳用一系列人類歷史創新的剪影開場,並把輝達與 AI 創新直接拔高定調為「下一個阿波羅時刻」。除了展示下一代超級晶片 Vera Rubin,黃仁勳還大談 6G、量子計算,機器人和自動駕駛,同時宣佈要投資新的巨頭,舞台大屏上輝達的「合作」對象名單可以說是密密麻麻。前不久,輝達曾對外宣佈向曾經的競爭對手英特爾投資 50 億美元,一度讓英特爾股價飆漲,同月又表示將向 OpenAI 投資 1000 億美元,AI 圈的循環資本運作一度被人戲稱是「左腳踩右腳上天」的遊戲。儘管已經引起熱議,並被市場提及風險,但這沒有停下輝達撒錢的動作。在 2025 GTC 大會上,黃仁勳又宣佈要投資 10 億美元,這次的對像是諾基亞,當天諾基亞股價於是應聲飆漲超 20%。除了與諾基亞合作,輝達還宣佈將與甲骨文打造 AI 超級電腦,與富士康合作在德克薩斯州建立生產 GPU 的自主機器人工廠,並計畫與 Uber 合作開發自動駕駛機器人計程車等等。輝達的觸角,可以說已經全方位伸向了全球各行各業的龍頭。而隨著美國股市新一輪上漲,輝達公司的估值,向著 5 兆美元又挺進了一步。01. Vera Rubin 超級晶片首先,在 GTC 大會上,黃仁勳首次公開展示了下一代「Vera Rubin 超級晶片(Superchip)」。它搭載了一顆代號「Vera」的 CPU 和兩顆體積龐大的「Rubin」GPU,每顆 GPU 均採用最新的 HBM4 高頻寬記憶體,配合 32 個 LPDDR 記憶體插槽。據悉,輝達實驗室已經收到首批由台積電代工生產的 Rubin GPU 樣品,並計畫在明年同一時間或更早實現量產。黃仁勳 GTC 大會台上展示下一代 Vera Rubin 超級晶片|圖片來源:輝達Rubin GPU 被視為輝達自 Blackwell 架構之後的又一次躍遷。每顆晶片的浮點計算性能可達 50 PFLOPs(FP4),搭配 288 GB 的 HBM4 視訊記憶體,幾乎是現有 GB300 Superchip 性能的數倍。與此同時,Vera CPU 採用定製 Arm 架構,擁有 88 個核心、176 執行緒,並通過 NVLINK-C2C 介面與 GPU 連接,頻寬高達 1.8 TB/s。這樣的架構組合,使得「Superchip」不再是傳統 CPU+GPU 的鬆散拼裝,而成為真正意義上融合式計算引擎。該系統平台被命名為 Vera Rubin NVL144,顧名思義,它包含 144 個互聯單元。其整體推理性能可達到 3.6 Exaflops(FP4),訓練性能則達到 1.2 Exaflops(FP8),相較 GB300 NVL72 實現了 3.3 倍的性能提升。平台支援 13 TB/s 的 HBM4 記憶體頻寬,擁有 75 TB 的高速記憶體池,NVLINK 與 CX9 互聯的總頻寬分別提升到 260 TB/s 與 28.8 TB/s。這還僅僅是開始。黃仁勳提到,Rubin 架構的第二階段——Rubin Ultra NVL576 平台,計畫在 2027 年推出。這一代產品會在現有基礎上再度擴展,系統規模從 144 提升至 576,GPU 從兩顆擴展到四顆,每顆 GPU 同樣為 Reticle 等級的巨型晶片。輝達晶片與平台路線圖,2016 至 2028 年節奏|圖片來源:輝達Rubin 系列的推出,標誌著輝達從 Blackwell 架構的過渡。Blackwell Ultra(GB300)仍在高速出貨中,輝達的策略顯然是讓兩代產品形成梯隊,GB300 繼續支撐當下的雲端運算和訓練負載,而 Rubin 則預備承接 2026 年之後的需求。值得注意的是,Rubin 的技術走向也反映出輝達在硬體設計理念上的轉折。過去十年,輝達不斷強化 GPU 的平行計算能力,而現在,它開始更系統化地整合 CPU 與 GPU,將其統一在一個超高速互聯體系之下。另外,Rubin 的命名方面,Vera Rubin 是 20 世紀最具影響力的天文學家之一,她的研究揭示了暗物質的存在——一個看不見卻主宰宇宙結構的力量。02. 與諾基亞合作 6G AI 平台輝達每次發佈會,總有公司會受影響,股價隨之波動。此次受影響最大的幸運兒,非「諾基亞」莫屬。輝達宣佈將以每股 6.01 美元的認購價向諾基亞投資 10 億美元。兩家合作的核心,是黃仁勳宣佈的「NVIDIA Arc Aerial RAN Computer(ARC)」,一款支援 6G 的電信計算平台,結合了連接、計算和感測功能。諾基亞據稱將在輝達的平台上推出 AI 原生的 6G 網路,推出新一代 AI-RAN 產品線。按照輝達的說法,這次合作將標誌著「AI 原生無線時代的開始」。輝達宣佈與諾基亞合作|圖片來源:輝達簡單來說,以前,基站只是訊號的中轉站,現在,它有可能會成為 AI 的邊緣推理節點。AI 不僅「最佳化通訊」,甚至直接「跑在通訊網路」上。ARC 更大的願景是,讓未來的每個基站,不僅能根據天氣、訊號干擾、使用者密度智能調度發射功率,還能部署「AI 服務」,如工業自動化控制、遠端協作、低延遲雲遊戲等。真如此,通訊基礎設施可能迎來巨變。過去十年,美國在 5G 領域的佈局顯得步履遲緩,從標準制定到產業鏈落地,全球主導權早已旁落。根據雙方披露的計畫,輝達將投資 10 億美元入股諾基亞,用於加速 AI-RAN 的全球部署。與此同時,還有其他巨頭的參與,比如戴爾科技將提供 PowerEdge 伺服器。美國的電信巨頭 T-Mobile 則將成為首個進行現場測試的營運商,計畫在 2026 年啟動 6G 實地驗證。「電信行業擁有人工智慧最寶貴的資源——邊緣計算,也就是資料產生的地方。」戴爾 CEO 稱,「現在,我們正在運用這些專業知識,將智能分佈到數百萬個邊緣節點。如今,那些對基礎設施進行現代化改造的營運商將不僅僅是承載人工智慧流量,他們還將是分佈式人工智慧網格工廠,在源頭進行處理,延遲和資料主權至關重要。」根據市場分析機構 Omdia 的預測,到 2030 年,AI-RAN 市場累計規模將超過 2000 億美元。這是通訊產業最重要的技術躍遷之一,而諾基亞與輝達的聯合,也正是押注在這一趨勢之上。目前全球移動 AI 流量增長迅猛,例如,ChatGPT 每周 8 億活躍使用者中,近一半來自移動端,AI 的需求已經從雲端延伸到終端。輝達官方稱,與諾基亞的合作,可讓消費者在其裝置上使用生成式、agentic 和 physical AI 應用時能夠享受流暢的網路體驗。它還將支援未來的原生人工智慧裝置,例如無人機、增強現實和虛擬現實眼鏡,並為整合感知與通訊等 6G 應用做好準備。「基於輝達 CUDA 和 AI 的 AI-RAN 將徹底改變電信行業——這是一次跨時代的平台變革。」黃仁勳稱。03. 連接量子與 GPU 計算如果說 CUDA 是 GPU 計算的起點,那麼 NVQLink 與 CUDA-Q 的結合,則意味著量子計算正式被納入輝達的軟體生態體系。在 GTC 大會上,黃仁勳宣佈推出 NVQLink,一種量子 GPU 互連技術,用於將 GPU 與量子處理器緊密結合,以建構加速量子超級電腦,主要用於大規模量子計算和量子糾錯。黃仁勳稱:「它不僅僅是為當今少量量子位元進行糾錯,它還為未來進行糾錯——那時我們將把量子電腦從現在的幾百個量子位元擴展到幾萬個,甚至未來的幾十萬個量子位元。」輝達推出 NVQLink|圖片來源:輝達據他透露,已有 17 家量子處理器製造商、5 家量子控制系統廠商和 9 家國家實驗室支援 NVQLink,「業界的支援令人難以置信」。參與者包括 Alice & Bob、IonQ、Rigetti、Pasqal、QuEra 等多家前沿量子公司,以及控制系統廠商 Keysight、Zurich Instruments、Quantum Machines 等。「在不久的將來,輝達的每台 GPU 科學超級電腦都將是混合型的,並與量子處理器緊密結合,以擴展計算的可能性。」黃仁勳稱,「NVQLink 就像連接量子和傳統超級電腦的羅塞塔石碑,將它們整合成一個統一、連貫的系統,標誌著量子 GPU 計算時代的到來。」04. Physical AI 進展在近兩年的 GTC 大會上,黃仁勳幾乎每次都會在演講最後提 Physical AI、Omniverse 數字孿生和機器人,這次也不例外。據輝達稱,西門子是首家開發支援輝達「超級 Omniverse 藍圖」的數字孿生軟體的公司,目前正在測試階段。新技術堆疊將整合至西門子的 Xcelerator 平台,支援將真實 3D 模型與即時運算元據結合,進行大規模工廠數字孿生的設計與營運。發那科和富士康工業富聯是首批支援基於 OpenUSD 建構其機器人數字孿生模型的製造商。黃仁勳在 GTC 大會上展示了富士康在德州休斯頓新建的 24 萬平方英呎工廠,據稱在現實動工之前,整座工廠的產線、機器人與物流在真實物理與即時資料中被反覆推演,先在虛擬世界把良率與節拍調優,再在現實中落成。另外,卡特彼勒、豐田、台積電等也在用 Omniverse 數字孿生做預測性維護、動態排產、智能調度。例如,台積電用 Omniverse 加速亞利桑那州鳳凰城晶圓廠的設計與建設。黃仁勳認為,AI 正在將全球工廠轉變為「智能思考機器」,這是新一輪工業革命的引擎。他稱:「這些工廠本質上就是一個機器人,它指揮其他機器人製造機器人產品。要實現這一點,所需的軟體量非常龐大,除非能在數字孿生環境中完成,否則幾乎不可能成功。」用輝達平台建構數字孿生的公司|圖片來源:輝達黃仁勳還提到了一些機器人公司。如機器人明星公司 Figure AI 與輝達合作,訓練了其 Helix 視覺語言動作模型。Agility Robotics 的通用人形機器人 Digit,也借輝達的 Isaac Lab 框架進行強化學習訓練,最佳化步態控制、抗擾恢復等技能。此外還有亞馬遜的機器人,比如其最近發佈的用於拾取、裝載和整合的 BlueJay 多臂機械手也用了 Omniverse 的庫和框架,據稱從概唸到量產只花了一年多時間。Skild AI 則在建構一個通用機器人基礎模型,讓輪式、四足、人形機器人共用一套智能體系,該公司用 Isaac Lab 進行運動和靈巧操作任務訓練,並使用輝達的 Cosmos 世界基礎模型生成訓練資料集。FieldAI 在建築、油氣領域訓練跨形態機器人大腦,也在用 Isaac Lab 強化學習與 Isaac Sim 進行合成資料生成與軟體閉環驗證。黃仁勳還提到了迪士尼,稱該公司正在使用輝達的 Omniverse 訓練「有史以來最可愛的機器人」。黃仁勳站在一堆機器人中間|圖片來源:輝達05. 「輝達宇宙」在本次 GTC 上,黃仁勳還提出一個概念:AI 不是工具,AI 就是勞動力。在他看來,以往的軟體是「人用工具」,而 AI 是「會用工具的數字勞動力」。它不僅能理解、響應、學習,還能配合 IDE、瀏覽器、搜尋引擎、資料庫,完成實際任務。因此,輝達開始深入 SaaS 與企業軟體體系,宣佈和 Palantir、CrowdStrike、SAP、Synopsys 等公司合作,將其 AI 工具鏈嵌入到一些行業龍頭企業系統中。比如,Palantir 的 Ontology 將整合 NVIDIA GPU 加速進行即時資料處理;CrowdStrike 的安全系統,將部署邊緣 AI 模組,實現「秒速響應」;Synopsys 和 Cadence,將利用 NVIDIA 提供的 AI Agent 輔助晶片設計,實現「AI 設計 AI」的循環最佳化。在醫療領域,跨國製藥公司禮來正在打造藥物研發 AI 工廠,據稱有 1000 個輝達 Blackwell Ultra GPU。在汽車側,輝達還宣佈與 Uber 達成戰略合作,要擴展全球最大的 L4 自動駕駛出行網路。Uber 計畫自 2027 年起正式啟動規模化部署,首批目標是 10 萬輛車輝達為此推出了 DRIVE AGX Hyperion 10,號稱「可讓任何車輛達到 L4-ready 階段」,核心是兩套高性能的 DRIVE AGX Thor 車載平台,基於 輝達 Blackwell 架構。輝達與 Uber 合作|圖片來源:輝達在輝達的佈局中,Uber 只是龐大生態的一環。Stellantis、Lucid、梅賽德斯奔馳等車企將基於 Hyperion 10 平台打造各自的 L4 級車輛。另外,在卡車領域,Aurora、沃爾沃、Waabi 正在用輝達平台開發 L4 級自動駕駛卡車。而在更廣泛的 L4 生態中,據稱 Avride、Momenta、Nuro、Pony.ai、Wayve、WeRide 等公司也都在用輝達的 DRIVE 平台進行演算法開發。這是一個跨越乘用車、商用車、Robotaxi 乃至機器人領域的巨大生態網路,而輝達的野心是成為這個網路的中樞。「全世界大約有 5000 萬輛計程車。未來,大量的無人駕駛計程車將加入到計程車隊伍中。」黃仁勳稱:「我們正與 Uber 合作,為整個行業建立一個框架,基於英偉 AI 基礎設施大規模部署自動駕駛車隊。曾經的科幻小說正在迅速成為現實。」黃仁勳在 2025GTC 大會上|圖片來源:輝達可以說,這屆 GTC,黃仁勳的重心已經不是吹單卡跑分,而是國家戰略、各種 AI 工廠、產業。輝達從算力到場景的全鏈路施工圖,越來越具體,結盟的各種行業龍頭,也比以往任何時候都多。作為全球最大的 AI 算力供應商,輝達甚至比自己的客戶——雲端運算和 AI 大模型公司——更希望 AI 能進一步進入真實世界。而要達成這樣一個「輝達宇宙」,「皮衣主教」需要更多的夥伴,非常非常多的夥伴,就像這屆華盛頓 GTC 大會上這樣。 (極客公園)